`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Дистанционная работа и гиперконвергентные решения

В период пандемии за прошедший год многие компании вынуждены были перевести сотрудников на дистанционную работу. И это было сопряжено не только с различными техническими и организационными сложностями. Работа персонала за периметром организации стала новым вызовом для бизнеса прежде всего в контексте киберзащиты.

Ряд исследований показывают, что на "человеческий фактор" приходится более половины основных причин нарушений безопасности, а это означает, что компании рискуют конфиденциальными данными, если их сотрудники недостаточно защищены.

Для многих компаний было критически важным выработка и принятие надежных политик удаленного доступа. Среди основных требований - безопасное подключение к интернету и применение VPN.

В таких условиях ИТ-отделы должны предпринимать необходимые шаги для обучения сотрудников технологиям обеспечения безопасности данных. Недавнее исследование компании Lenovo показало, что при внедрении новых технологий организации ставят бизнес-цели выше потребностей сотрудников. Только 6% ИТ-менеджеров считают пользователей главным приоритетом при инвестировании в технологии. Это не только отрицательно сказывается на продуктивности в целом, но и делает компании уязвимыми для угроз безопасности. Когда компании внедряют новые технологии, не принимая во внимание их влияние на человека, многие сотрудники оказываются перегруженными из-за сложности и темпов изменений, не получают поддержки, когда в этом возникает необходимость. Очевидно, что предприятиям при принятии ИТ-решений нужно ставить потребности своих сотрудников во главу угла.

Пандемия заставила бизнес активно переходить на использование cloud-решений. Скажем, облачное хранилище данных обеспечивает полную масштабируемость, а получать доступ к данным в реальном времени может любой сотрудник организации, где бы он ни находился. С ростом востребованности удаленной работы мы наблюдаем дальнейшую потребность в динамическом хранилище данных, которое обеспечивает высокую эффективность и скорость доступа. Это потенциально ускорит внедрение стратегий облачного хранения данных - чем больше сотрудников работает дома, тем выше потребность в удаленном доступе к данным.

Один из вариантов для малого и среднего бизнеса - стратегия гибридного облака, которая предполагает использование как локальных хранилищ данных, так и облачных платформ. Везде, где требуется быстрый доступ к большим объемам данных, по-прежнему необходимы локальные системы хранения. Сочетание облачного и локального подходов позволяет гарантировать быстрый доступ к данным, одновременно обеспечивая применение в корпоративной инфраструктуре наиболее актуальных решений хранения данных. Ко всему прочему, гибридное хранилище также полезно для архивирования данных.

Гиперконвергентные решения наиболее оптимальны и для создания инфраструктуры VDI, обеспечивающей возможность защищенной удаленной работы сотрудников. Могу отметить, что за последний год заметно вырос спрос на гиперконвергентные системы Lenovo, основанные на открытой платформе, которые позволяют развертывать и управлять комплексной средой от периферии до облака с простыми обновлениями и простой масштабируемостью.

Когда приоритет — надежность

Грядущие перемены ландшафта ЦОД

Согласно прогнозам Gartner, уже через пять лет более 75% всех данных, генерируемых предприятиями, «будут создаваться и обрабатываться вне традиционного центра обработки данных или облака». Периферийные ЦОД могут найти широкий диапазон использования — от промышленности или инфраструктуры зданий до логистических систем.

Спрос на периферийные вычисления среди прочего обусловлен необходимостью увеличить скорость доступа к приложениям и сократить затраты на передачу больших объемов данных, которые часто оказывается целесообразным собирать и обрабатывать ближе к их источнику.

Периферийные ЦОД могут использоваться для критических процессов, например, управления дорожным движением или для контроля производственных процессов. Ключевыми факторами при этом являются масштабируемость и резервирование.

Архитектура таких систем зависит от области их применения. Для малых мощностей такой ЦОД может содержать всего одну или две стойки, но должен все равно отвечать требованиям центра обработки данных — от надежного электропитания и охлаждения до исопльзования систем непрерывного мониторинга. Скажем, большие объемы вычислений требуют наличия нескольких стоек с высокой мощностью охлаждения. Для непрерывного предоставления критически важных данных необходимо гарантирование максимальной степени отказоустойчивости.

Среди прочего, периферийные центры обработки данных отличаются энергоэффективностью и малым занимаемым пространством. Локальные ЦОД или микроЦОД содержат 1-10 стоек и дают значительные возможности по обработке и хранению данных по сравнению с локальными устройствами. Региональные ЦОД насчитывают более 10 стоек.

Развитие малых дата-центров обусловлено еще и тем, что в городе строить крупные ЦОД становится все более проблематично. И вопрос не только в занимаемом месте, для работы ИТ-оборудования необходимо много электроэнергии и еще столько же требуется на ее охлаждение. А с этим в мегаполисах все больше проблем.

Практически повсеместное наличие линий высокоскоростного интернета, плюс спутниковые каналы (которые можно использовать как резервные) практически стирает разницу в уровне доступности между ЦОД «в соседней комнате» и удаленным дата-центром. Между тем «в поле» гораздо дешевле построить огромное здание и подвести требуемые мощности.

С развитием малых дата-центров будет расти использование гиперконвергентных решений, которые наиболее оптимальны для внедрения в том числе и в таких кейсах.

Текущая ситуация и общие тренды позволяет предположить, что компании будут постепенно избавляться от крупных городских площадок и строить основательные, спроектированные по всем правилам ЦОД за пределами города, уже не резервные, а основные. При этом значительную часть задач возьмут на себя именно периферийные ЦОД.

Когда приоритет — надежность

Серверные перспективы

Наш мир динамичен, а происходящая цифровая трансформация бизнеса заставляет задуматься о том, что ждет современные ИТ-инфраструктуры в будущем, хотя бы в ближайшем.

Чтобы спрогнозировать изменения, которые ожидают серверный сегмент, скажем, лет через десять, попробуем оттолкнуться от анализа того, что было те же 10 лет назад. Так, в линейке Lenovo в 2010 году максимальная конфигурация включала шестиядерный процессор с поддержкой тактовой частоты около 3 ГГц и с тепловым пакетом 95 Вт. Максимальный объем оперативной памяти составлял 288 ГБ. Платформа оснащалась четырьмя слотами PCIe Gen 2, а ее общая потребляемая мощность была в пределах 675 Вт. Встроенная система хранения включала 16 2,5-дюймовых накопителей.

Сегодня же в линейке Lenovo имеются серверы с 64-ядерными процессорами, которые работают примерно на той же тактовой частоте 3 ГГц, но их тепловой пакет вырос до 225 Вт. В состав системы входит до 4 ТБ оперативной памяти, а платформа оснащена 8 слотами PCIe  Gen4. Блок питания обеспечивает мощность 1800 Вт. А в состав СХД входит до 40 2,5-дюймовых дисков.

Сравнив указанные конфигурации, можно спрогнозировать, что на пороге следующего десятилетия сервер будет базироваться на 500-ядерном процессоре, работающем с частотой 3 ГГц. Тепловой пакет подобного чипа можно оценить в 500 Вт. Объем оперативной памяти увеличится до 32 ТБ. А вот число слотов расширения, вероятно, останется прежним, изменится лишь применяемый протокол на PCIe Gen6. В результате общая потребляемая сервером мощность достигнет 3500 Вт. В то же время, принципиальные изменения в системе хранения данных вряд ли произвойдут.

Согласитесь, прогнозируемый состав сервера 2030 года выглядит более чем впечатляюще. Но будут ли к тому времени достойные такой производительности задачи? Можно не сомневаться, что такой «монстр» вряд ли будет простаивать без дела. Достаточно вспомнить, насколько быстро увеличивается объем генерируемой в мире информации, начиная с выкладываемых на облачные сервисы фото и видео и заканчивая данными, получаемыми автомобилями с автономным управлением. Потоки данных в цифровом мире через десятилетие будет исчисляться в зетабайтах. И для работы с этой информацией потребуются соответствующие вычислительные ресурсы.

Почему же процессоры стремительно наращивают число ядер, а не тактовую частоту? Дело в том, что рост частоты упирается в экспоненциальный рост потребляемой мощности. Поэтому прирост общей производительности происходит за счет увеличения удельного числа выполняемых инструкций на один такт. И число ядер продолжит расти. Но это потребует соответствующго использования алгоритмов с распараллеливанием вычислений.

Увеличение числа ядер закономерно приводит к росту объемов оперативной памяти, но как показали исследования, полоса пропускания DDR остается неизменной при числе ядер более 16. Поэтому потребуется использование большего числа каналов или памяти нового типа.

Еще одним архитектурным усовершенствованием серверных платформ станет широкое внедрение, так называемой, постоянной памяти (persistent memory), которая сотрет границу между ОЗУ и СХД. А главной тенденцией развития систем хранения данных станет переход к твердотельным накопителям, что же касается их числа, то оно ощутимо наращиваться не должно, будет лишь увеличиваться емкость.

Но что же делать с быстро увеличивающимся тепловыделением серверов? Есть все основания полагать, что справиться с этой задачей можно с помощью систем жидкостного охлаждения. Ресурс воздушного ограничен физическими размерами корпусов. В настоящее время Lenovo внедряет уже четвертое поколение жидкостных систем для серверов. И как показывает опыт эксплуатации серверов, оснащенных решением Neptune, они в состоянии гораздо дольше выдерживать максимальные вычислительные нагрузки без снижения надежности.

И в заключение еще один важный тренд - так называемые, краевые вычисления (edge computing). Распределяя выполнение задачи, требующей значительных вычислительных ресурсов, на большое число серверов, можно избежать перегрузки дата-центров, чьи возможности по энергоснабжению и охлаждению ограничены.

Возможно, у вас есть собственные наблюдения - как будут развиваться серверные технологии. Давайте обсудим.

Про гибридные облака. Важные основы

В последние годы цифровая трансформация превратилась в расхожий термин, который используют к месту и не очень. Но несмотря на всю шумиху, суть этого сочетания слов остается прежней, цифровая трансформация - это больше, чем просто модное слово - это бизнес-императив. И как бы высокопарно это не звучало, но это именно то, что должно быть ключевым для любой организации, ключевым в контексте конкурентоспособности в мире, где данные становятся самым главным активом.

Уже не раз говорилось о том, что цифровая трансформация должна превратится для бизнеса из расплывчатого модного слова в реальную ИТ-задачу. В задачу, которая должна изменить эффективность бизнеса и дать ему необходимые рычаги. И вот тут на сцену выходят облачные вычисления и гибридные операционные модели ИТ, способные соответствовать выдвигаемым требованиям.

Современным предприятиям требуется гибкая ИТ-платформа, которая может эффективно предоставлять необходимые технологические ресурсы и услуги. В последнее десятилетие отрасль реагировала на этот запрос различными инновациями, среди которых - конвергентная инфраструктура, гиперконвергентные системы, различные формы облачных технологий и распределенные периферийные операции.

Одним из ключевых предложений последних лет является гибридное облако. Как правило, операционная модель при этом использует ИТ-инфраструктуру из нескольких источников, как локальных (онпремисных), так и облачных.

Стоит отметить, что отличительной особенностью модели гибридного облака является то, что эти несколько источников ИТ-инфраструктуры работают с общей интегрированной программной платформой. Использование модели гибридного облака дает предприятиям гибкость, необходимую для принятия быстрых и зачастую радикальных решений.

Существующие варианты гибридного облака могут базироваться как на использовании IaaS-базированных виртуальных машин так и контейнеров. Причем инфраструктура может быть распределена и на локальных ресурсах, и в публичном облаке с использованием резервного копирования, DR или бэкапа.

Что важно - полностью распределенная гибридная облачная IaaS обеспечивает беспрепятственное развертывание и миграцию приложений между разными частями ИТ-инфраструктуры без необходимости проведения различных «деструктивных» реконфигурации или преобразований - независимо от того, находится ли она локально или за ее пределами.

Гибридные ИТ-службы, подключенные к облаку, аналогичным образом используют интеграцию распределенных операционных платформ для расширения репликации данных и управляемых служб из нескольких источников инфраструктуры. Фактически, общая операционная платформа, охватывающая эти среды, делает базовую ИТ-инфраструктуру абсолютно прозрачной для приложения - независимо от того, предоставляется ли эта базовая инфраструктура сторонним поставщиком общедоступного облака, локальной облачной средой или гиперконвергентной инфраструктурой. или просто виртуализация.

Теперь давайте рассмотрим какие факторы необходимо учитывать в первую очередь при переходе на стратегию гибридного облака.

Зачастую многие предприятия сталкиваются с необходимостью быстрого масштабирования ИТ-ресурсов - при запуске новых проектов или, скажем, когда резко растут объемы бизнеса? Использование гибридного облака позволяет решить проблему с ИТ-ресурсом заранее определенной многооблачной оркестровкой для общей автоматизации межплатформенного размещения и переносимости, при этом четко программируются как задачи, так и конечные точки. Одно из основных преимуществ модели гибридного облака - возможность использовать одну общую операционную платформу для быстрого выделения, масштабирования или перераспределения ресурсов для обработки и хранения данных. И все это без необходимости расширения локальной инфраструктуры, сложной реконфигурации или преобразования данных между разнородными форматами.

Вопрос экономической эффективности стоит всегда и в любой организации, какого бы она ни была масштаба. А в сложившихся сегодня условиях многие сталкиваются с острой необходимостью снижения затрат, в том числе и тех, что связаны с развертыванием и управлением локальной инфраструктурой. Поскольку перед ИТ-командами стоит задача делать «больше за меньшие деньги», использование гибридного облака может сократить траты за счет плавного переключения потребления инфраструктуры на наиболее экономичный вариант, не нарушая при этом функционирование приложений, работающих на общей операционной платформе. Образно говоря, попытка перенести такую ​​инфраструктуру с помощью оркестровки нескольких облаков намного сложнее и разрушительнее, чем перемещение здания на новый фундамент, расположенный за много километров.

Современные приложения становятся все более сложными, приходится собирать сотни терабайт данных от клиентов, конечных пользователей и других критически важных источников, чтобы превратить их в полезную информацию. В этих условиях успех бизнеса часто определяется гибкостью и простотой активации, а также масштабирования таких распределенных сервисов. Там и тогда, где они необходимы, и без операционной нагрузки, связанной со сложной межплатформенной реинтеграцией. Подход с использованием гибридного облака обеспечивает необходимые гибкость и простоту для быстрого и своевременного реагирования на потребности в ресурсах современных приложений - за счет общей операционной платформы, независимо от поставщика базовой инфраструктуры.

Одна из самых больших и распространенных проблем для предприятий на пути цифровой трансформации - это работа с огромными объемами создаваемых данных. Экономика по требованию ускоряет темпы развития бизнеса и данных, которые его поддерживают. Новые инициативы, такие как Интернет вещей, могут стимулировать сбор информации по всем направлениям, а интеллектуальный анализ данных поддерживать динамическую аналитику. Но все это усложняет задачи, стоящие перед ИТ-департаментами. Разработка стратегического плана по доставке и перемещению хранилищ данных в нужное время и в нужное место, а также соответствующий уровень обслуживания и управление становятся одной из наиболее важных задач цифровой трансформации. И вновь именно платформа гибридного облака обеспечивает те условия, которые необходимы для быстрого выделения ресурсов, масштабирования и плавной миграции хранилища. А последнее зачастую происходит из нескольких источников и локальных точек ИТ-инфраструктуры.

Что требуется для успешной реализации модели гибридного облака? Тут есть несколько важных пунктов.

Использование интегрированного подхода поможет упростить процесс внедрения гибридной облачной платформы и ускорит выход на нужный уровень производительности.

Когда возникают неожиданные препятствия, очень важно иметь возможность оптимизировать процесс поддержки с помощью единой точки контакта для развертывания аппаратной и программной платформы. Оптимизированный процесс поддержки исключает задержки в реализации проекта и гарантирует, что будет найдено средство для устранения любой проблемы должным образом.

При работе с ИТ-услугами очень важно, чтобы проект также включал надлежащие инструменты интеграции. С их помощью можно значительно снизить сложность управления данными, приложениями и услугами.

Ну, и еще один важный фактор при развертывании гибридного облака - работа с надежным партнером. При решении сложных инфраструктурных задач правильный партнер поможет  упростить процесс принятия решений, обеспечит развертывание правильных аппаратных и программных решений. Кроме того, на каждом этапе он поможет вам контролировать весь процесс, прогнозируя возможные проблемы на каждом последующем этапе.

Быстрая адаптация — секрет выживания в эпоху перемен

О цифровой трансформации в последнее время говорится очень много. Почему же эта задача стала настолько актуальной? Ключевая причина — стремительно нарастающий поток информации.

По оценкам IDC, каждые два дня в мире генерируется 5 экзабайт информации, и ее объем постоянно увеличивается, чему способствует быстро увеличивающееся число подключенных устройств, в том числе и категории IoT. Но главное, не сам стремительно нарастающий поток данных, а возможность извлечь из них полезные для каждого отдельного бизнеса знания.

Получить их можно с помощью бизнес-приложений, которые, в свою очередь, требуют значительных вычислительных ресурсов. Поэтому как только речь заходит о цифровой трансформации организации, нужно понимать, что ей должна предшествовать трансформация ИТ-инфраструктуры предприятия, позволяющая обеспечить необходимую производительность.

В свою очередь, одним из важнейших приоритетов при преобразовании ИТ-инфраструктуры становится обеспечение ее гибкости. Поскольку чем она выше, тем быстрее можно выполнять перестройку на уровне управления, а значит, появляется больше возможностей на выполнение организационной трансформации и уменьшается время на проведение различных процедур. При этом неоценимую помощь в сокращении ресурсов обслуживания ИТ-инфраструктуры оказывает внедрение технологий искусственного интеллекта, которым можно перепоручить большинство рутинных операций и таким образом высвободить человеческие ресурсы для более сложных задач.

Свое подтверждение этот принцип получил в последнее время, когда из-за внезапного изменения условий ведения бизнеса, связанных с появлением пандемии COVID-19, гибкость и умение адаптироваться стали не только залогом успеха бизнеса, но и возможностью его выживания. Мало того, скорость в таких изменениях для многих компаний открыла новые ниши для укрепления и расширения бизнеса (в частности в онлайн-ритейле).

Наблюдая за развитием корпоративных центров обработки данных можно увидеть, что все большую популярность получает гиперконвергентная технология, которая идет на смену традиционной виртуализации.

Облачный подход также трансформируется, так как в поисках оптимального размещения данных CIO приходят к концепции гибридного облака.

Еще один тренд последнего времени — пограничные решения (Edge Computing), которые объединяют преимущества оперативной масштабируемости облачного подхода и удобство локального размещения. В результате, платформа оказывается ближе к источнику интенсивно поступающей от IoT-устройств информации. Она также приближается и к месту принятия решений, что жизненно важно, например, для средств автоматизированного управления производством. И опять же речь идет про новые возможности для адаптации к меняющимся условиям.

Одной из самых непростых задач для ИТ-специалистов остается добавление необходимого количества ресурсов без избыточного резервирования. Например, недавно представленное решение Lenovo Edge HC3 как раз позволяет запускать небольшие инфраструктурные программно-аппаратные платформы для выполнения критически важных рабочих нагрузок. Причем как в виде отдельных устройств, так и их кластеров для обеспечения высокой доступности. При этом объем ресурсов программного обеспечения самого HC3 очень мал, что освобождает аппаратные мощности для приложений и локального хранения данных.

Цифровая трансформация — это по сути и есть адаптация бизнеса к ужесточающимся внешним условиям, и не важно это естественным образом нарастающая конкуренция или возникший из ниоткуда коронавирус. Некоторые наблюдатели даже проводят аналогии с теорией Дарвина — виды не адаптировавшиеся к меняющимся условиям обречены на забвение, увы.

 
 

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT