`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Системы управления данными. 5 основных трендов

Массовый переход на цифровую и удаленную работу привел к тому, что бизнес ежедневно генерирует беспрецедентный объем данных. И вопрос даже не столько в растущих объемах - огромная часть информации, собранной корпоративными системами остается бесполезной. Фактически, по разным оценкам, 90% данных никогда не будут востребованы вновь через 90 дней после хранения. Эта ненужная информация не только занимает место на, и без того переполненных, СХД, но и вызывают дополнительную нагрузку на системы управления данными .

Системы управления данными становятся ключевыми инструментами в современных условиях. Они определяют ключевые решения и становятся базисом для устойчивого развития бизнеса.

Можно выделить пять ключевых тенденций в области управления данными, которые, вероятно, будут преобладать в ближайшие годы.
 
Продолжающийся рост цифровой трансформации

Зависимость сотрудников компании от традиционного рабочего места уменьшается. За прошедший год для многих руководителей компаний стало очевидно, что удаленные сотрудники и децентрализованные офисы позволяют поднять эффективность бизнеса и добиться успеха, а в основе этого лежит цифровая трансформация.

Поскольку большая часть работы теперь выполняется в виртуальных средах, потребность компаний в оцифровке процессов управления данными лишь возросла. Организации постоянно сталкиваются с проблемой внедрения единой системы управления данными для более эффективного анализа и обработки данных, при этом обеспечивая ее доступность и оптимальное использование.

Данные больше не являются просто хорошо структурированной информацией, полученной из ограниченного числа источников. Вместо этого, реальность, с которой в настоящее время сталкиваются бизнес-лидеры, заключается в том, что они поступают в различных формах и из разных источников, что придает все большее значение тому, как информация обрабатывается и хранится. Это вызвало повышенный спрос на платформы, инструменты и технологии флеш-массивов.

5G как катализатор

Доступность сетей 5G станет критически важной для многих бизнес-операций. С естественным ростом IoT, использующих 5G, скорость создания и анализа данных только увеличит потребность в высокопроизводительных хранилищах с малой задержкой на периферийных локациях.

Безусловно, 5G станет катализатором разработки более продвинутых приложений, требовательных к данным, которые позволят корпоративным системам оставаться на связи, обрабатывая информацию с молниеносной скоростью. В свою очередь, бизнес-модели предприятий должны будут адаптироваться к новой ситуации, особенно в том, что касается услуг, предоставляемых конечным пользователям и клиентам. Поэтому надежные, безопасные и высокоэффективные решения для управления данными станут центральным звеном в использовании огромного потенциала 5G  для бизнес-операций.

ИИ ускорит автоматизацию и прогнозирование в управлении данными

Поставщики систем хранения все чаще обращаются к искусственному интеллекту и машинному обучению, чтобы встроить автоматизированные возможности в корпоративные системы управления данными. И тут могут быть самые разные сценарии: от повышения эффективности при мониторинге требований к емкости до использования уже существующих данных для прогнозной аналитики, предотвращая возникновение проблем. В 2021 году компании, скорее всего, продолжат сокращать участие человека в управлении инфраструктурой данных, все шире используя интеллектуальные программные решения.

Корпоративный центр обработки данных теперь должен рассматриваться как сердце конвейера данных для AI, и поэтому он требует высокой производительности ввода-вывода. Начиная с предварительной обработки, где ценность заключается в передаче данных в нейронные сети для обучения модели, All Flash Arrays может позволить устранить узкие места в производительности и ускорить рабочие нагрузки ИИ.

Благодаря эффективному использованию возможностей искусственного интеллекта предприятия могут значительно повысить эффективность управления данными.

Экономика подписки распространяется на инфраструктуру данных

Когда-то «хранилище как услуга» рассматривалось как рентабельный способ для малых и средних предприятий внедрять и поддерживать собственную инфраструктуру хранения. Теперь это стало тенденцией, которую крупнейшие мировые компании стремятся реализовать в своих системах.

Зачем тратить огромную часть своего бюджета на владение и обслуживание активов, особенно тех, которые быстро устаревают, когда вы можете платить только за то, что приносит ощутимую пользу вашим системам управления? В конце концов, ваши данные останутся вашими, это просто инфраструктура, на которой они работают, и обслуживается сторонним поставщиком.

Компании ищут дополнительную поддержку в отношении повседневных аспектов своих систем управления данными, поэтому модели использования «хранилище как услуга» могут стать обычным способом для предприятий обрабатывать свои данные.

В фокусе гибридный подход

Возможность гибридного облака больше не просто один из вариантов, это ключевой аспект  стратегии управления данными. Всем нужна возможность переносить рабочие нагрузки в облако, когда это необходимо. Однако, учитывая, что не все облачные сервисы являются общедоступными, гибридный подход — является наиболее оптимальным.

Управление данными в гибридном облаке поддерживает рост всей системы хранения, что означает, что предприятия могут легко и прозрачно переносить данные из локальной среды в систему облачных провайдеров и обратно без каких-либо неоправданных осложнений. Гибридные облачные системы, обеспечивают гибкость, позволяющую справляться с изменяющимися обстоятельствами и адаптироваться к ним. В качестве примера такого решения можно привести серию решений ThinkAgile серии VX.

Можно ли достичь 100%-ной модернизации инфраструктуры?

Локальные системы всегда будут оставаться частью стратегий управления данными, чтобы помочь контролировать расходы, сократить задержки и повысить безопасность, однако наличие гибридных возможностей поможет расширить рабочие нагрузки как на общедоступные, так и на частные облачные среды, поддерживая определенные требования к хранилищу, которые могут возникнуть во периоды повышенного спроса.

 

5G на службе умного города - проект в Барселоне

Барселона - один из крупнейших городов, лидирующих во внедрении 5G. Консорциум, в который входят ведущие телекоммуникационные компании, поставщики ИТ-услуг и местные органы власти, нацелен на реализацию в городе крупномасштабного пилотного 5G-проекта, в котором важную роль играют периферийные вычисления. Создав передовой пример того, как может работать умный город на базе 5G, пилот возможно вдохновит другие города на то, как они могут развиваться в контексте использования новых технологий.

5G на службе умного города - проект в Барселоне

Барселона была одним из первых европейских городов, которые внедрили передовые технологии для улучшения услуг. Как известный телекоммуникационный узел и оживленное место для проведения масштабных мероприятий, таких как Mobile World Congress, этот город является идеальным местом для демонстрации возможностей 5G.

Конечно же, концепция умного города не нова, но 5G в комбинации с IoT переводит ее на совершенно новый уровень удобство мобильной сети.

Город начал проекты по трансформации сети в 2015 году. Затем, четыре года спустя, в рамках консорциума, включающего Intel, Atos, Cellnex и Nearby Computing, Lenovo представила предложение о проведении семи пилотных проектов в течение 30 месяцев.

С тех пор миру пришлось столкнуться с глобальной пандемией, что принесло новые вызовы и для этой инициативы. Но в рамках пилотного проекта, рассчитанного на два с половиной года, у членов консорциума есть время, чтобы внести улучшения во всю экосистему и обеспечить бесперебойную работу с малой задержкой как для предприятий, так и для пользователей. И есть надежда, что пилотный проект - это только начало долгосрочной инициативы по изучению потенциала технологии 5G, которая сделает Барселону ведущим умным городом в мире.

Бесспорно, разнообразие решений, ставших возможными с помощью 5G, преобразит бизнес, потребителей и граждан. В частности, для Барселоны сценарии, изучаемые для пилотного проекта умного города наряду с облачной ИТ-инфраструктурой, включают:

    Экстренное реагирование и общественная безопасность. Работа с полицейскими для более рационального подхода к общественной безопасности.
    Образование. Демонстрирует школам, как голографические решения могут сделать возможным удаленное обучение посредством иммерсивного обучения.
    Электронная торговля. Обеспечение иммерсивного опыта удаленных покупок с помощью дополненной реальности - чтобы позволить предприятиям продолжать работать в любых условиях.
    Автомобильная промышленность. Как автономные подключенные к сети транспортные средства могут преобразить городской транспортный трафик.
    Производство. За счет использования данных в режиме реального времени овышение экологичности предприятий за счет улучшения производственных процессов, повышения эффективности цепочки поставок с максимальной эффективностью, реагируя на.

Участники консорциума уверены, что 5G откроет новые возможности в вышеперечисленных сегментах. И тут дело не только в новых потоках доходов и монетизации, но и в повышении социальной активности. В будущем 5G выйдет за пределы концепции умных городов и станет неотъемлемой частью того, как люди живут, учатся, работают и общаются в эпоху, когда все взаимосвязано.

5G открывает перед телекоммуникационной отраслью огромные возможности, но также создает дополнительную нагрузку на операторов мобильной связи и ставит перед ними новые вызовы. По разным оценкам к 2025 году объем мобильных данных в мире превысит 164 эксабайт в месяц - в пять раз больше нынешних показателей. Ожидается, что 45% этого трафика будет идти через сети 5G. Поскольку все большие объемы данных становятся доступными через устройства IoT и интеллектуальные сети, операторы сосредоточат внимание не только на решении проблем с пропускной способностью и задержкой, но и на том, как можно использовать инфраструктуру для экономии затрат и генерирования новых потоков доходов.

Среди прочего, например, часть нагрузки из основных центров обработки данных может быть перенесена на периферию. Таким образом, операторы мобильной связи смогут повысить производительность своей сети, повысить масштабируемость и снизить эксплуатационные расходы. Это достигается за счет использования сетевой архитектуры Multi-Access Edge Computing (MEC), которая устраняет перегрузку полосы пропускания и поддерживает новые приложения и сервисы, работающие на периферии, включая IoT, AR и работу с локальным контентом.

5G на службе умного города - проект в Барселоне

Для пилотного проекта в Барселоне компания Lenovo предоставила свою единую платформу и архитектуру MEC, которая позволяет развернуть необходимые периферийные вычисления. Решение построено на основе сервера ThinkSystem SE350 и ПО Lenovo Open Cloud Automation (LOC-A), которое реализует возможности управления облачной инфраструктурой поставщиков коммуникационных услуг. LOC-A также поддерживает работу с Kubernetes, Red Hat OpenShift, OpenStack и VMware Cloud Foundation. Таким образом, платформа представляет собой интеллектуальное открытое, модульное решение, которое может поддерживать несколько сценариев использования в рамках пилотного проекта.

Подводя итог - 5G имеет большой потенциал для инноваций, но только в том случае, если конечные сервисы и клиентские сценарии решают реальные проблемы и генерируют новые потоки доходов. И пилотный проект в Барселоне позволяет изучить то, как технологии нового поколения могут помочь провести преобразования на пути к умному городу. Более детальную информацию о 5G Barcelona, можно найти на сайте проекта.

Можно ли достичь 100%-ной модернизации инфраструктуры?

Существует не так много технологических инноваций, которые обеспечивают гибкую инфраструктуру и позволяют значительно снизить общую стоимость владения.

Одна из таких технологий - гиперконвергентная инфраструктура (HCI), которая объединяет хранилище и вычислительные ресурсы в единый строительный блок, плюс к этому значительно упрощает управление инфраструктурой.

Такие HCI-решения, как VMware vSAN в сочетании с интеграцией управления жизненным циклом оборудования и программного обеспечения (vLCM) непосредственно в vCenter, уже не первый год используются для ускорения внедрение современных инфраструктур и оптимизации управления ими. Кроме того, поставщики создают интегрированные системы, которые еще заметнее упрощают развертывание и оперативное управление.

Можно ли достичь 100%-ной модернизации инфраструктуры?

Например такое решение как Lenovo ThinkAgile VX, построенное с использованием технологии NVMe и поддерживающее системы с 4 и даже с 8 сокетами, позволяет создавать надежные и масштабируемые платформы для работы с критически важными приложениями класса SAP HANA и нагруженными базами данных. Такие инновации, как VMware Cloud Foundation, добавляют обширные возможности оркестровки и получения необходимых метрик облачных вычислений, а в сочетании с VMware on AWS помогают многим компаниям разработать собственную стратегию использования гибридного облака и модернизацию инфраструктуры.

При всех этих неоспоримых достижениях возникает вопрос, можно ли достичь 100% перевода имеющихся приложений на описываемую новую парадигму. Последнюю милю, как известно, всегда труднее всего преодолеть. Относительно недавно запущенная функция VMware HCI Mesh в VMware vSAN 7 Update 2 помогает заполнить и этот пробел, позволяя вычислительным ресурсам удаленно использовать хранилище из кластера ThinkAgile VX vSAN в центре обработки данных. Независимое масштабирование вычислительных ресурсов и ресурсов хранения данных, таким образом, позволяет использовать отдельный кластер для выделенных вычислительных мощностей под рабочие нагрузки.

HCI Mesh не только обеспечивает гибкое масштабирование вычислений и хранилищ, но также гарантирует более быстрый переход к HCI. Такие функции, как управление хранилищем на основе политик (Storage Policy-Based Management, SPBM), были расширены за счет включения информации о топологиях HCI Mesh для управления удаленным размещением данных для вычислительных кластеров. Поэтому те, у кого все еще есть серверы на гарантии или системы, которые обычно не подходят для HCI (например, блейд-серверы), могут использовать топологию HCI Mesh, чтобы получить все преимущества функций vSAN на этих серверах без необходимости в дополнительных лицензиях на вычислительные кластеры.

Пандемия ускоряет переход к периферийным вычислениям

Пандемия коронавируса и связанные с ней ограничения привели к фундаментальным изменениям в нашем образе жизни и работе. Они также выявили некоторые слабые места в используемых ИТ-архитектурах, которые используются для обеспечения большинства повседневных задач.

Некоторые изменения, в том числе удаленная работа, большее виртуальное взаимодействие, усиление потоковой передачи видео, продолжающийся рост онлайн-игр и повышенная потребность в безопасности данных, вероятно, сохранятся еще долго после того, как пандемия пройдет. Становится очевидным, что переход инфраструктуры к интеллектуальным периферийным вычислениям будет значительно ускорен.

Кроме того, появились задачи в иных масштабах, которых ранее не было. Например, ношение  масок в людных местах с соблюдением физической дистанции и анализ данных с этим связанным. Возникают задачи по обеспечению соблюдения этих мер и необходимость сбора сопутствующих данных для поддержки необходимых мер в области общественного здравоохранения. Высокая скорость передачи данных и низкая задержка, обеспечиваемые периферийными вычислениями, поддерживают обработку изображений и видео в реальном времени с помощью глубокого обучения и других интеллектуальных технологий.

Пандемия также изменила то, как мы работаем, сделав удаленную работу или работу из дома «новой нормой». Многие компании уже заявили, что не вернутся к старым методам работы даже после того, как опасность пандемии пройдет. Политики использования собственного устройства (BYOD) могут помочь снизить потребность в расходах на оборудование в масштабах компании. Это позволяет сотрудникам использовать свои личные устройства из дома, что в сочетании с периферийными вычислениями и инфраструктурой виртуальных рабочих столов (VDI) - обеспечивает более дешевые и гибкие рабочие операции. Возможно, что еще более важно, наша культура изменилась - и этот сдвиг только усиливается продолжающейся пандемией, меняющей ожидания как работодателей, так и сотрудников.
 
Помимо двух вышеупомянутых вариантов использования, можно также наблюдать новые тенденции в онлайн-покупках, играх и развлечениях, которые испытывают очередной бум на фоне самоизоляции пользователей. И все это ставит новые задачи перед традиционной ИТ-инфраструктурой. Поскольку все больше и больше рабочих нагрузок клиентов требуют быстрого реагирования, периферийные вычисления становятся наиболее эффективным способом решения возникающих задач, таких как сокращение времени отклика, повышение качества обслуживания клиентов и снижение требований к полосе пропускания от периферии к облаку. Плюс к этому добавьте задачи по оптимизации OPEX и CPEX.

Один из примеров решения для периферийных вычислений может служить Lenovo ThinkAgile MX1000, который позволяет развертывать инфраструктуру на базе Azure Stack HCI. Этот сервер, ко всему прочему,  выдерживает температуру окружающей среды от 0° до 55 °C, не боится пыли и вибрации. Поэтому система может быть развернута не только в офисе, но например, на стройплощадке или в цеху. Этот сервер высотой 1U с половинной шириной и малой толщиной можно установить почти где угодно: подвесить на стене, поставить на полку или смонтировать в стойку.

Пандемия ускоряет переход к периферийным вычислениям

Не стоит также сбрасывать со счетов и тот факт, что пограничные вычисления способны ускорить внедрение и развитие концепции умных городов, в контексте возникающих задач, в том числе и из-за пандемии. Экстренная медицинская помощь, общественная безопасность, оптимизация работы общественного транспорта, дистанционное обучение в современных условиях требуют все больше вычислительного ресурса, а данных генерируется все больше.

Пандемия усилила процессы цифровизации в различных индустриях. И периферийные вычисления оказались в фарватере этих изменений. Благодаря своим преимуществам они быстро становятся предметом внимания не только в чрезвычайных ситуациях, но и в рамках интеллектуальной эволюции отрасли.

Дистанционная работа и гиперконвергентные решения

В период пандемии за прошедший год многие компании вынуждены были перевести сотрудников на дистанционную работу. И это было сопряжено не только с различными техническими и организационными сложностями. Работа персонала за периметром организации стала новым вызовом для бизнеса прежде всего в контексте киберзащиты.

Ряд исследований показывают, что на "человеческий фактор" приходится более половины основных причин нарушений безопасности, а это означает, что компании рискуют конфиденциальными данными, если их сотрудники недостаточно защищены.

Для многих компаний было критически важным выработка и принятие надежных политик удаленного доступа. Среди основных требований - безопасное подключение к интернету и применение VPN.

В таких условиях ИТ-отделы должны предпринимать необходимые шаги для обучения сотрудников технологиям обеспечения безопасности данных. Недавнее исследование компании Lenovo показало, что при внедрении новых технологий организации ставят бизнес-цели выше потребностей сотрудников. Только 6% ИТ-менеджеров считают пользователей главным приоритетом при инвестировании в технологии. Это не только отрицательно сказывается на продуктивности в целом, но и делает компании уязвимыми для угроз безопасности. Когда компании внедряют новые технологии, не принимая во внимание их влияние на человека, многие сотрудники оказываются перегруженными из-за сложности и темпов изменений, не получают поддержки, когда в этом возникает необходимость. Очевидно, что предприятиям при принятии ИТ-решений нужно ставить потребности своих сотрудников во главу угла.

Пандемия заставила бизнес активно переходить на использование cloud-решений. Скажем, облачное хранилище данных обеспечивает полную масштабируемость, а получать доступ к данным в реальном времени может любой сотрудник организации, где бы он ни находился. С ростом востребованности удаленной работы мы наблюдаем дальнейшую потребность в динамическом хранилище данных, которое обеспечивает высокую эффективность и скорость доступа. Это потенциально ускорит внедрение стратегий облачного хранения данных - чем больше сотрудников работает дома, тем выше потребность в удаленном доступе к данным.

Один из вариантов для малого и среднего бизнеса - стратегия гибридного облака, которая предполагает использование как локальных хранилищ данных, так и облачных платформ. Везде, где требуется быстрый доступ к большим объемам данных, по-прежнему необходимы локальные системы хранения. Сочетание облачного и локального подходов позволяет гарантировать быстрый доступ к данным, одновременно обеспечивая применение в корпоративной инфраструктуре наиболее актуальных решений хранения данных. Ко всему прочему, гибридное хранилище также полезно для архивирования данных.

Гиперконвергентные решения наиболее оптимальны и для создания инфраструктуры VDI, обеспечивающей возможность защищенной удаленной работы сотрудников. Могу отметить, что за последний год заметно вырос спрос на гиперконвергентные системы Lenovo, основанные на открытой платформе, которые позволяют развертывать и управлять комплексной средой от периферии до облака с простыми обновлениями и простой масштабируемостью.

Когда приоритет — надежность

Грядущие перемены ландшафта ЦОД

Согласно прогнозам Gartner, уже через пять лет более 75% всех данных, генерируемых предприятиями, «будут создаваться и обрабатываться вне традиционного центра обработки данных или облака». Периферийные ЦОД могут найти широкий диапазон использования — от промышленности или инфраструктуры зданий до логистических систем.

Спрос на периферийные вычисления среди прочего обусловлен необходимостью увеличить скорость доступа к приложениям и сократить затраты на передачу больших объемов данных, которые часто оказывается целесообразным собирать и обрабатывать ближе к их источнику.

Периферийные ЦОД могут использоваться для критических процессов, например, управления дорожным движением или для контроля производственных процессов. Ключевыми факторами при этом являются масштабируемость и резервирование.

Архитектура таких систем зависит от области их применения. Для малых мощностей такой ЦОД может содержать всего одну или две стойки, но должен все равно отвечать требованиям центра обработки данных — от надежного электропитания и охлаждения до исопльзования систем непрерывного мониторинга. Скажем, большие объемы вычислений требуют наличия нескольких стоек с высокой мощностью охлаждения. Для непрерывного предоставления критически важных данных необходимо гарантирование максимальной степени отказоустойчивости.

Среди прочего, периферийные центры обработки данных отличаются энергоэффективностью и малым занимаемым пространством. Локальные ЦОД или микроЦОД содержат 1-10 стоек и дают значительные возможности по обработке и хранению данных по сравнению с локальными устройствами. Региональные ЦОД насчитывают более 10 стоек.

Развитие малых дата-центров обусловлено еще и тем, что в городе строить крупные ЦОД становится все более проблематично. И вопрос не только в занимаемом месте, для работы ИТ-оборудования необходимо много электроэнергии и еще столько же требуется на ее охлаждение. А с этим в мегаполисах все больше проблем.

Практически повсеместное наличие линий высокоскоростного интернета, плюс спутниковые каналы (которые можно использовать как резервные) практически стирает разницу в уровне доступности между ЦОД «в соседней комнате» и удаленным дата-центром. Между тем «в поле» гораздо дешевле построить огромное здание и подвести требуемые мощности.

С развитием малых дата-центров будет расти использование гиперконвергентных решений, которые наиболее оптимальны для внедрения в том числе и в таких кейсах.

Текущая ситуация и общие тренды позволяет предположить, что компании будут постепенно избавляться от крупных городских площадок и строить основательные, спроектированные по всем правилам ЦОД за пределами города, уже не резервные, а основные. При этом значительную часть задач возьмут на себя именно периферийные ЦОД.

Когда приоритет — надежность

Серверные перспективы

Наш мир динамичен, а происходящая цифровая трансформация бизнеса заставляет задуматься о том, что ждет современные ИТ-инфраструктуры в будущем, хотя бы в ближайшем.

Чтобы спрогнозировать изменения, которые ожидают серверный сегмент, скажем, лет через десять, попробуем оттолкнуться от анализа того, что было те же 10 лет назад. Так, в линейке Lenovo в 2010 году максимальная конфигурация включала шестиядерный процессор с поддержкой тактовой частоты около 3 ГГц и с тепловым пакетом 95 Вт. Максимальный объем оперативной памяти составлял 288 ГБ. Платформа оснащалась четырьмя слотами PCIe Gen 2, а ее общая потребляемая мощность была в пределах 675 Вт. Встроенная система хранения включала 16 2,5-дюймовых накопителей.

Сегодня же в линейке Lenovo имеются серверы с 64-ядерными процессорами, которые работают примерно на той же тактовой частоте 3 ГГц, но их тепловой пакет вырос до 225 Вт. В состав системы входит до 4 ТБ оперативной памяти, а платформа оснащена 8 слотами PCIe  Gen4. Блок питания обеспечивает мощность 1800 Вт. А в состав СХД входит до 40 2,5-дюймовых дисков.

Сравнив указанные конфигурации, можно спрогнозировать, что на пороге следующего десятилетия сервер будет базироваться на 500-ядерном процессоре, работающем с частотой 3 ГГц. Тепловой пакет подобного чипа можно оценить в 500 Вт. Объем оперативной памяти увеличится до 32 ТБ. А вот число слотов расширения, вероятно, останется прежним, изменится лишь применяемый протокол на PCIe Gen6. В результате общая потребляемая сервером мощность достигнет 3500 Вт. В то же время, принципиальные изменения в системе хранения данных вряд ли произвойдут.

Согласитесь, прогнозируемый состав сервера 2030 года выглядит более чем впечатляюще. Но будут ли к тому времени достойные такой производительности задачи? Можно не сомневаться, что такой «монстр» вряд ли будет простаивать без дела. Достаточно вспомнить, насколько быстро увеличивается объем генерируемой в мире информации, начиная с выкладываемых на облачные сервисы фото и видео и заканчивая данными, получаемыми автомобилями с автономным управлением. Потоки данных в цифровом мире через десятилетие будет исчисляться в зетабайтах. И для работы с этой информацией потребуются соответствующие вычислительные ресурсы.

Почему же процессоры стремительно наращивают число ядер, а не тактовую частоту? Дело в том, что рост частоты упирается в экспоненциальный рост потребляемой мощности. Поэтому прирост общей производительности происходит за счет увеличения удельного числа выполняемых инструкций на один такт. И число ядер продолжит расти. Но это потребует соответствующго использования алгоритмов с распараллеливанием вычислений.

Увеличение числа ядер закономерно приводит к росту объемов оперативной памяти, но как показали исследования, полоса пропускания DDR остается неизменной при числе ядер более 16. Поэтому потребуется использование большего числа каналов или памяти нового типа.

Еще одним архитектурным усовершенствованием серверных платформ станет широкое внедрение, так называемой, постоянной памяти (persistent memory), которая сотрет границу между ОЗУ и СХД. А главной тенденцией развития систем хранения данных станет переход к твердотельным накопителям, что же касается их числа, то оно ощутимо наращиваться не должно, будет лишь увеличиваться емкость.

Но что же делать с быстро увеличивающимся тепловыделением серверов? Есть все основания полагать, что справиться с этой задачей можно с помощью систем жидкостного охлаждения. Ресурс воздушного ограничен физическими размерами корпусов. В настоящее время Lenovo внедряет уже четвертое поколение жидкостных систем для серверов. И как показывает опыт эксплуатации серверов, оснащенных решением Neptune, они в состоянии гораздо дольше выдерживать максимальные вычислительные нагрузки без снижения надежности.

И в заключение еще один важный тренд - так называемые, краевые вычисления (edge computing). Распределяя выполнение задачи, требующей значительных вычислительных ресурсов, на большое число серверов, можно избежать перегрузки дата-центров, чьи возможности по энергоснабжению и охлаждению ограничены.

Возможно, у вас есть собственные наблюдения - как будут развиваться серверные технологии. Давайте обсудим.

Про гибридные облака. Важные основы

В последние годы цифровая трансформация превратилась в расхожий термин, который используют к месту и не очень. Но несмотря на всю шумиху, суть этого сочетания слов остается прежней, цифровая трансформация - это больше, чем просто модное слово - это бизнес-императив. И как бы высокопарно это не звучало, но это именно то, что должно быть ключевым для любой организации, ключевым в контексте конкурентоспособности в мире, где данные становятся самым главным активом.

Уже не раз говорилось о том, что цифровая трансформация должна превратится для бизнеса из расплывчатого модного слова в реальную ИТ-задачу. В задачу, которая должна изменить эффективность бизнеса и дать ему необходимые рычаги. И вот тут на сцену выходят облачные вычисления и гибридные операционные модели ИТ, способные соответствовать выдвигаемым требованиям.

Современным предприятиям требуется гибкая ИТ-платформа, которая может эффективно предоставлять необходимые технологические ресурсы и услуги. В последнее десятилетие отрасль реагировала на этот запрос различными инновациями, среди которых - конвергентная инфраструктура, гиперконвергентные системы, различные формы облачных технологий и распределенные периферийные операции.

Одним из ключевых предложений последних лет является гибридное облако. Как правило, операционная модель при этом использует ИТ-инфраструктуру из нескольких источников, как локальных (онпремисных), так и облачных.

Стоит отметить, что отличительной особенностью модели гибридного облака является то, что эти несколько источников ИТ-инфраструктуры работают с общей интегрированной программной платформой. Использование модели гибридного облака дает предприятиям гибкость, необходимую для принятия быстрых и зачастую радикальных решений.

Существующие варианты гибридного облака могут базироваться как на использовании IaaS-базированных виртуальных машин так и контейнеров. Причем инфраструктура может быть распределена и на локальных ресурсах, и в публичном облаке с использованием резервного копирования, DR или бэкапа.

Что важно - полностью распределенная гибридная облачная IaaS обеспечивает беспрепятственное развертывание и миграцию приложений между разными частями ИТ-инфраструктуры без необходимости проведения различных «деструктивных» реконфигурации или преобразований - независимо от того, находится ли она локально или за ее пределами.

Гибридные ИТ-службы, подключенные к облаку, аналогичным образом используют интеграцию распределенных операционных платформ для расширения репликации данных и управляемых служб из нескольких источников инфраструктуры. Фактически, общая операционная платформа, охватывающая эти среды, делает базовую ИТ-инфраструктуру абсолютно прозрачной для приложения - независимо от того, предоставляется ли эта базовая инфраструктура сторонним поставщиком общедоступного облака, локальной облачной средой или гиперконвергентной инфраструктурой. или просто виртуализация.

Теперь давайте рассмотрим какие факторы необходимо учитывать в первую очередь при переходе на стратегию гибридного облака.

Зачастую многие предприятия сталкиваются с необходимостью быстрого масштабирования ИТ-ресурсов - при запуске новых проектов или, скажем, когда резко растут объемы бизнеса? Использование гибридного облака позволяет решить проблему с ИТ-ресурсом заранее определенной многооблачной оркестровкой для общей автоматизации межплатформенного размещения и переносимости, при этом четко программируются как задачи, так и конечные точки. Одно из основных преимуществ модели гибридного облака - возможность использовать одну общую операционную платформу для быстрого выделения, масштабирования или перераспределения ресурсов для обработки и хранения данных. И все это без необходимости расширения локальной инфраструктуры, сложной реконфигурации или преобразования данных между разнородными форматами.

Вопрос экономической эффективности стоит всегда и в любой организации, какого бы она ни была масштаба. А в сложившихся сегодня условиях многие сталкиваются с острой необходимостью снижения затрат, в том числе и тех, что связаны с развертыванием и управлением локальной инфраструктурой. Поскольку перед ИТ-командами стоит задача делать «больше за меньшие деньги», использование гибридного облака может сократить траты за счет плавного переключения потребления инфраструктуры на наиболее экономичный вариант, не нарушая при этом функционирование приложений, работающих на общей операционной платформе. Образно говоря, попытка перенести такую ​​инфраструктуру с помощью оркестровки нескольких облаков намного сложнее и разрушительнее, чем перемещение здания на новый фундамент, расположенный за много километров.

Современные приложения становятся все более сложными, приходится собирать сотни терабайт данных от клиентов, конечных пользователей и других критически важных источников, чтобы превратить их в полезную информацию. В этих условиях успех бизнеса часто определяется гибкостью и простотой активации, а также масштабирования таких распределенных сервисов. Там и тогда, где они необходимы, и без операционной нагрузки, связанной со сложной межплатформенной реинтеграцией. Подход с использованием гибридного облака обеспечивает необходимые гибкость и простоту для быстрого и своевременного реагирования на потребности в ресурсах современных приложений - за счет общей операционной платформы, независимо от поставщика базовой инфраструктуры.

Одна из самых больших и распространенных проблем для предприятий на пути цифровой трансформации - это работа с огромными объемами создаваемых данных. Экономика по требованию ускоряет темпы развития бизнеса и данных, которые его поддерживают. Новые инициативы, такие как Интернет вещей, могут стимулировать сбор информации по всем направлениям, а интеллектуальный анализ данных поддерживать динамическую аналитику. Но все это усложняет задачи, стоящие перед ИТ-департаментами. Разработка стратегического плана по доставке и перемещению хранилищ данных в нужное время и в нужное место, а также соответствующий уровень обслуживания и управление становятся одной из наиболее важных задач цифровой трансформации. И вновь именно платформа гибридного облака обеспечивает те условия, которые необходимы для быстрого выделения ресурсов, масштабирования и плавной миграции хранилища. А последнее зачастую происходит из нескольких источников и локальных точек ИТ-инфраструктуры.

Что требуется для успешной реализации модели гибридного облака? Тут есть несколько важных пунктов.

Использование интегрированного подхода поможет упростить процесс внедрения гибридной облачной платформы и ускорит выход на нужный уровень производительности.

Когда возникают неожиданные препятствия, очень важно иметь возможность оптимизировать процесс поддержки с помощью единой точки контакта для развертывания аппаратной и программной платформы. Оптимизированный процесс поддержки исключает задержки в реализации проекта и гарантирует, что будет найдено средство для устранения любой проблемы должным образом.

При работе с ИТ-услугами очень важно, чтобы проект также включал надлежащие инструменты интеграции. С их помощью можно значительно снизить сложность управления данными, приложениями и услугами.

Ну, и еще один важный фактор при развертывании гибридного облака - работа с надежным партнером. При решении сложных инфраструктурных задач правильный партнер поможет  упростить процесс принятия решений, обеспечит развертывание правильных аппаратных и программных решений. Кроме того, на каждом этапе он поможет вам контролировать весь процесс, прогнозируя возможные проблемы на каждом последующем этапе.

Быстрая адаптация — секрет выживания в эпоху перемен

О цифровой трансформации в последнее время говорится очень много. Почему же эта задача стала настолько актуальной? Ключевая причина — стремительно нарастающий поток информации.

По оценкам IDC, каждые два дня в мире генерируется 5 экзабайт информации, и ее объем постоянно увеличивается, чему способствует быстро увеличивающееся число подключенных устройств, в том числе и категории IoT. Но главное, не сам стремительно нарастающий поток данных, а возможность извлечь из них полезные для каждого отдельного бизнеса знания.

Получить их можно с помощью бизнес-приложений, которые, в свою очередь, требуют значительных вычислительных ресурсов. Поэтому как только речь заходит о цифровой трансформации организации, нужно понимать, что ей должна предшествовать трансформация ИТ-инфраструктуры предприятия, позволяющая обеспечить необходимую производительность.

В свою очередь, одним из важнейших приоритетов при преобразовании ИТ-инфраструктуры становится обеспечение ее гибкости. Поскольку чем она выше, тем быстрее можно выполнять перестройку на уровне управления, а значит, появляется больше возможностей на выполнение организационной трансформации и уменьшается время на проведение различных процедур. При этом неоценимую помощь в сокращении ресурсов обслуживания ИТ-инфраструктуры оказывает внедрение технологий искусственного интеллекта, которым можно перепоручить большинство рутинных операций и таким образом высвободить человеческие ресурсы для более сложных задач.

Свое подтверждение этот принцип получил в последнее время, когда из-за внезапного изменения условий ведения бизнеса, связанных с появлением пандемии COVID-19, гибкость и умение адаптироваться стали не только залогом успеха бизнеса, но и возможностью его выживания. Мало того, скорость в таких изменениях для многих компаний открыла новые ниши для укрепления и расширения бизнеса (в частности в онлайн-ритейле).

Наблюдая за развитием корпоративных центров обработки данных можно увидеть, что все большую популярность получает гиперконвергентная технология, которая идет на смену традиционной виртуализации.

Облачный подход также трансформируется, так как в поисках оптимального размещения данных CIO приходят к концепции гибридного облака.

Еще один тренд последнего времени — пограничные решения (Edge Computing), которые объединяют преимущества оперативной масштабируемости облачного подхода и удобство локального размещения. В результате, платформа оказывается ближе к источнику интенсивно поступающей от IoT-устройств информации. Она также приближается и к месту принятия решений, что жизненно важно, например, для средств автоматизированного управления производством. И опять же речь идет про новые возможности для адаптации к меняющимся условиям.

Одной из самых непростых задач для ИТ-специалистов остается добавление необходимого количества ресурсов без избыточного резервирования. Например, недавно представленное решение Lenovo Edge HC3 как раз позволяет запускать небольшие инфраструктурные программно-аппаратные платформы для выполнения критически важных рабочих нагрузок. Причем как в виде отдельных устройств, так и их кластеров для обеспечения высокой доступности. При этом объем ресурсов программного обеспечения самого HC3 очень мал, что освобождает аппаратные мощности для приложений и локального хранения данных.

Цифровая трансформация — это по сути и есть адаптация бизнеса к ужесточающимся внешним условиям, и не важно это естественным образом нарастающая конкуренция или возникший из ниоткуда коронавирус. Некоторые наблюдатели даже проводят аналогии с теорией Дарвина — виды не адаптировавшиеся к меняющимся условиям обречены на забвение, увы.

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT