`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Open Hybrid Architecture сотрёт различия между облачными и локальными ресурсами

В условиях, когда границы между облачными и онпремисными вычислениями становятся все менее ощутимыми, компания Hortonworks выступила инициатором создания единой гибридной архитектуры для многооблачных сред.

Первыми о поддержке Open Hybrid Architecture Initiative заявили корпорация IBM и Red Hat, другие партнёрские анонсы ожидаются в ближайшее время.

Hortonworks рассчитывает, что эта кампания по переносу облачной архитектуры на локальные площадки предприятий обеспечит самый широкий охват сообществ Open Source, экосистемы партнёров и её собственных платформ.

Open Hybrid Architecture сотрёт различия между облачными и локальными ресурсами

Так называемая «многооблачность» является одной из самых актуальных тенденций в сегодняшних корпоративных ИТ. Организации не только переводят в виртуальный вид всё больше приложений для запуска их практически на любой инфраструктуре, но и ищут пути миграции рабочих нагрузок между публичными облачными средами и своими собственными приватными облаками.

Проведённый компанией IDC опрос более 6 тыс. организаций, использующих облачные сервисы, показал, что три четверти из них уже работают с несколькими облачными провайдерами. В 2021 г. по прогнозам IDC оценивает многооблачные сервисы превратятся в рынок с оборотом 68 млрд долл.

Главными задачами Open Hybrid Architecture Initiative станут переопределение интерфейсов хранения для поддержки интерфейсов файловых систем и объектных хранилищ, перемещение вычислительных ресурсов в контейнеры, создание общих служб для таких областей как метаданные и безопасность, стандартизация средств оркестровки для единообразного управления сервисами и рабочими нагрузками.

Наряду с заказчиками, стремящимися избежать привязки к одному вендору облачных сервисов, новая инициатива выгодна и самой Hortonworks, так как основу предложенной платформы составляют её технологии, разработанные для открытого сообщества. Red Hat выигрывает поскольку её платформа для управления контейнерами, OpenShift, должна стать стандартом оркестровки Kubernetes. IBM продаёт Hortonworks Data Platform как рекомендуемую ею реализацию Hadoop, а кроме того сотрудничает во многих областях с Red Hat.

Hortonworks уже имеет богатый опыт объединения партнёров вокруг открытых начинаний. Три года назад широкий резонанс получила Open Data Platform — попытка Hortonworks создать набор согласованных стандартов для экосистемы Hadoop, также призванная противостоять конкурентам, продающим собственные закрытые расширения открытых стандартов. Двумя годами раньше в рамках инициативы Stinger компания постаралась сплотить разработчиков вокруг языка запросов Apache Hive.

Hortonworks полагает, что её очередное начинание обречено на успех, поскольку рынок созрел для кросс-платформенных рабочих нагрузок Big Data. Hadoop разрабатывалась, исходя из предпосылки, что хранение и вычисления будут тесно связаны, но сегодня, с широким распространением 100-мегабитных подключений к облаку «мы должны пересмотреть некоторые из фундаментальных предпосылок», — считает Арун Мурти (Arun Murthy), директор по продуктам Hortonworks. По его мнению, сейчас открывается широкий простор для разных способов оптимизации, одинаково применимых к облаку и к предприятию.

В ходе первой фазы проекта, Hortonworks выполнит контейнеризацию ядра платформы Hadoop и движка потоковой аналитики DataFlow с помощью DataPlane, облачного сервиса агрегации данных из разных источников и локаций.

Вторая фаза предполагает разделение хранения и вычислений путём внедрения масштабируемого интерфейса файловой системы и объектного хранилища, который базируется на Ozone. Это расширение Hadoop File System создано Hortonworks для работы с информацией, хранящейся в виде объектов (например, файлы мультимедиа).

На финальном, третьем этапе проекта, компания собирается возглавить работу по контейнеризации других важных служб Big Data, используя OpenShift для приложений Kubernetes. К таким целевым службам Hortonworks причисляет Apache Knox, предназначенную для управления кластерами, Apache Atlas — управление данными, и Apache Ranger — безопасность.

Hortonworks не спешит связывать себя конкретными сроками, однако Мурти указал, что основной объём работ по Open Hybrid Architecture предполагается проделать в течении следующего года. «Мы хорошо поработали технически, наращивая мясо на костях, но экосистеме нужно (время, чтобы) адаптироваться», — заявил он.

Каждому сверчку — свой шесток: Торвальдс о развитии ядра Linux

Дать каждому из отвечающих за подразделы свой кусок веревки, чтобы тот мог на нём повеситься — этим и другими откровениями о своём подходе к контролю за дальнейшей эволюцией ядра Linux создатель этой ОС, Линус Торвальдс, поделился в беседе со своим традиционным интервьюером, вице-президентом VMware Дирком Хонделом (Dirk Hohndel), на подиуме конференции Open Source Summit North America, которая под эгидой Linux Foundation состоялась в Ванкувере в последних числах прошлого месяца.

«Я занимаюсь только виртуальной файловой системой. Это та область, в которой я все ещё проявляю активность. Кроме того, я присматриваю за критическими проблемами и, в значительной степени, за архитектурой x86. Какое-то время я заботился о планировщике, но бросил это дело», — продолжил Торвальдс.

Каждому сверчку — свой шесток: Торвальдс о развитии ядра Linux

Кто же тогда контролирует Linux? Это обязанность мэнтейнеров и суб-мэнтейнеров ядра системы. Они отвечают за развитие Linux, которое, как оптимистично заметил Торвальдс, теперь не остановит даже его попадание под автобус. И хотя Линус продолжает программировать, например, в проекте многоплатформенного органайзера Subsurface для занятий дайвингом, его нынешний статус в Linux — менеджер, а не разработчик.

Линус о технических проблемах ядра: «Да, они беспокоят меня, но я не обеспокоен ими. Процесс гораздо важнее, чем код. Если обнаруживается баг, вы знаете как поступать с ним».

В этом один из сильных аспектов движения Open Source и причина того, почему разработчики Linux оказались лучше других готовы встретить дыры безопасности Spectre.

«Встречаясь с трудностью, вы не разбираетесь с ней в закрытом окружении. Вы обращаетесь к людям, которые ищут проблемы, и предоставляете им возможность помочь вам в устранении таковых. Единственный способ бороться со сложностью этого мира — открытый обмен идеями».

Как Торвальдс администрирует Linux? Полагаясь на иерархию ответственности. «Если вы шлёте мне патч, значит, виноват мэнтейнер, не сумевший объяснить кто должен его получать. В Linux имеется от двух до трёх уровней мэнтейнеров. Каждый из них отвечает за свою подсистему и обязан своевременно отвечать разработчикам. Если мэнтейнер не может достучаться до разработчика за две недели, это слишком долго. Если программист не получает подтверждение о приёмке кода в течение 48 часов, ему следует повторить подачу.

При всём этом, отличительной чертой любой хорошей стратегии, по мнению Торвальдса, является умение выделять для себя главное и игнорировать остальное. «Я никогда не стесняюсь говорить «мне всё равно, ты можешь быть суб-мэнтейнером» для тех областей, которые мне неинтересны. Никто не может оставаться у руля по 24 часа 7 дней в неделю».

Говоря о новых программистах, приходящих в проект, Торвальдс не считает необходимой предпосылкой наличие у них высшего или специального образования. В то же время, он горячо рекомендует им всё же потратить время на колледж: «Программирование вполне можно освоить на стороне. В университете вы учитесь другим вещам».

Создатель Linux воспользовался предоставившейся возможностью, чтобы сказать пару слов и в общем о проектах с открытым кодом. В частности, он отметил, что в корпоративных инициативах Open Source зачастую ставят телегу впереди лошади — уделяют больше внимания развитию сообщества, чем совершенствованию кода.

Устремляя взгляд в будущее, Линус предсказывает рост значимости Linux и другого открытого ПО. Развитие аппаратной части больше не обеспечивает ускорения, требующегося для соблюдения закона Мура, поэтому для удовлетворения спроса на всё более мощные приложения останется только улучшать программный код.

В качество бонуса — слова мудрости гуру о новых технологиях.

Торвальдс о квантовых компьютерах: «Я большой Скептик. Не думаю, что это когда-либо станет реальностью. Если же я ошибаюсь. Что ж, меня похоронят задолго до того, как это выяснится».

В своём отношении к искусственному интеллекту Линус более благожелателен: «Нейронные сети выглядят очень интересно. Ранний ИИ был чем-то вроде змеиного масла (шарлатанского лекарства от всех болезней), но о нейронных сетях известно, что они действительно работают».

Цветной E-Ink: Гол! Нет. Штанга

Когда в 2016 году, разработчик электрофоретических дисплеев для электронных книг, фирма E-Ink, представила новую технологию Advanced Color ePaper (ACeP), это породило волну радостных ожиданий. Скорого появления полноцветных читалок Kindle, однако, не произошло. Техногикам пришлось довольствоваться теми скудными возможностями, что могли предоставить трёхпигментный экран Spectra или Triton (4096 тусклых цветов и 16 уровней серого).

ACeP не идёт ни в какое сравнение с этими допотопными технологиями. Этот экран отображает 32 тысячи оттенков с разрешением 150 ppi. И, отличная новость, E-Ink начала поставки двух вариантов AceP, с размером диагонали 32 и 13,3 дюйма (1600×2500 пикселей) своим партнёрам для верификации, разработки контроллеров и управляющего ПО.

 Гол! Нет. Штанга

Президент E Ink, Джонсон Ли сказал в интервью: «С момента дебюта ACeP несколько лет назад мы сделали много для улучшения этой платформы, расширив цветовую гамму и сократив сроки обновления. Текущая версия ACeP — это самый сложный из доступных цветных экранов ePaper».

ACeP обеспечивает отображение всех основных восьми цветов, используя один слой электрофоретической жидкости в микрокапсулах или структурах Microcap и одноуровневую управляющую схему, совместимую с коммерческими платами TFT. Нужные оттенки получаются смешиванием красителей в одном пикселе: отказ от субпикселей существенно уменьшает ослабление отражаемого света.

Компания сообщает, что, подобно другим дисплеям ePaper, AceP расходует очень мало энергии и подходит для любых условий внешнего освещения. E Ink рассчитывает, что ещё до конца текущего года эта технология будет запущена в массовое производство, и что где-то в 2019 г. начнёт приносить заметную прибыль.

 Гол! Нет. Штанга

Одна оговорка. Среди этих прекрасных новых устройств с красочными экранами, скорее всего, не будет e-ридеров. В ближайшей перспективе, AceP практически исключительно нацеливают на сегмент Signage, то есть на всевозможные вывески, ярлыки, указатели.

Причина такого ограничения потенциального рынка проста: заявленное президентом Ли «сокращение сроков обновления» экрана не столь велико, чтобы обеспечить комфортное пролистывание страниц.

Насколько ещё далека от нас реализация мечты наслаждаться электронными книгами в цвете, можно понять по степени оптимизма, излучаемого главой eInk: «Я не возьмусь утверждать, что она (технология AceP) никогда не появится в е-ридерах...».

В общем, снова фальстарт, запасёмся терпением, не привыкать.

Инновации магнитной записи выведут HDD на уровень 20–40 ТБ

HAMR, MAMR и MRAM — эти не слишком благозвучные слова стали центрами притяжения внимания многочисленных участников 29-й конференции TMRC, в первую декаду августа организованной обществом IEEE Magnetics Society. В Милпитасе, где расположен калифорнийский кампус Western Digital, было представлено четыре десятка работ, посвящённых новым материалам, устройствам и технологиям для магнитного хранения данных и продвинутых приложений.

Наряду с основными подходами к увеличению ёмкости магнитных дисков: магнитной записью с тепловым (HAMR) и микроволновым (MAMR) ассистированием, они стали главными темами первого и второго дня конференции, обсуждались такие способы, как откачка воздуха из HDD, заполнение его гелием и использование стеклянных пластин.

Инновации магнитной записи выведут HDD на уровень 20–40 ТБ

Гелиевая атмосфера внутри накопителя позволяет уменьшить такие критические для роста плотности записи недостатки, как наводки между соседними дорожками (Adjacent Track Interference, ATI) и неточность локализации дорожки (Track Mis-Registration, TMR).

О более радикальном решении — полной откачке газа из жёсткого диска — рассказал представитель стартапа L2, Питер Гоглиа (Peter Goglia). Вакуум внутри корпуса накопителя, по его словам, позволяет не только забыть об опасности коррозии, но также отказаться от использования смазки диска, защитной углеродной оболочки пластин и головок.

Уменьшение «магнитного зазора» приводит к увеличению линейной плотности дорожек, что даёт прирост ёмкости более 35% для перпендикулярной магнитной записи (PMR) и дополнительные преимущества для технологий HAMR и MAMR. Помимо того, на 50% снижается расход энергии на «холостом ходу». Гоглиа показал и новый актуатор головки чтения/записи, обеспечивающий доступ к большей части поверхности магнитной пластины — это также даёт вклад в увеличение ёмкости HDD.

Инновации магнитной записи выведут HDD на уровень 20–40 ТБ

Интересную презентацию по технологии MAMR подготовила компания Toshiba: она показала, что разные слои регистрирующей среды могут быть настроены на взаимодействие с различными частотами микроволнового излучения. Это позволяет работать с дисками послойно, т.е. реализовать подобие 3D-записи.

Фирма Hoya, выпускающая стеклянные пластины для дисков, обсудила перспективы замены ими традиционных алюминиевых пластин в гелиевых HDD формата 3,5-дюйма. По её оценкам, это позволит увеличить количество пластин с нынешних 8-9 (общая ёмкость до 14 ТБ) до 10 или даже 12, с соответственным ростом вместимости накопителя.

Инновации магнитной записи выведут HDD на уровень 20–40 ТБ

Все эти новые разработки говорят о решимости производителей HDD, несмотря на прогресс твёрдотельных накопителей, в следующие пару лет вывести жёсткие диски на уровни ёмкости 20 или даже 40 ТБ.

Последний, третий день конференции TMRC был посвящён магнитной памяти MRAM. В последнее время на рынке появились дискретные и встраиваемые устройства MRAM, использующие перенос спинового момента (Spin Tunnel Torque, STT). Однако уже существуют технологии аномального эффекта Холла (Anomalous Hall Effect, AHE) и спин-орбитального момента (Spin Orbit Torque, SOT), которые в ближайшие годы позволят MRAM составить конкуренцию скоростной памяти SRAM.

Обнаружена брешь в современной защите процессоров Intel

В 2015 г. корпорация Intel представила инновационную технологию Intel Software Guard eXtensions (Intel SGX), которая создаёт в памяти компьютера изолированные среды, так называемые анклавы, где программы и данные могут использоваться безопасно.

На протяжении трёх лет защита, предоставляемая SGX, считалась непреодолимой, но всему хорошему приходит конец. Исследователи из KU Leuven (Бельгия) нашли брешь в этой защите. Атака Foreshadow, организованная ими вместе с Израильским технологическим институтом — Технион, университетами Мичигана и Аделаиды, продемонстрировала, что содержимое анклавов можно извлечь из них.

Обнаружена брешь в современной защите процессоров Intel

«Эта атака использует спекулятивное выполнение, — рассказывает один из исследователей, Рауль Стракс (Raoul Strackx). — Для ускорения работы, процессор делает некоторые расчёты заранее. Если оказывается, что для этих вычислений производится неавторизованное извлечение информации из анклава, они удаляются. Но тут Intel SGX делает ошибку. Не всё следы этих вычислений стираются, что позволяет нам войти в анклав».

После того, как в январе исследователи уведомили Intel о проблеме, та провела свой собственный анализ, открыв ещё две родственные уязвимости, которые получили название Foreshadow-NG (New Generation). В итоге выяснилось, что Foreshadow-NG представляют собой даже более серьёзную угрозу. Они могут использоваться для чтения любой информации из кэша L1, включая данные System Management Mode (SMM), ядра ОС и гипервизора. Кроме того они представляют опасность для публичной облачной инфраструктуры, обеспечивая доступ к информации чужих виртуальных машин, работающих на общем облачном хостинге.

Вчера Intel выпустила программный и микрокодовый патчи, призванне закрыть эту уязвимость в миллионах своих процессоров. «Заплаты», использующиеся для защиты от Spеctre/Meltdown неэффективны против Foreshadow.

Отставание в детализации Intel компенсирует апгрейдом чипов

Корпорация Intel, являющаяся вторым в мире чипмейкером по уровню доходов, вынашивает планы апгрейда существующих процессоров. В сочетании с новой технологией памяти это позволит противостоять давлению со стороны Advanced Micro Devices (AMD) и прочих конкурентов, заявил Навин Шеной (Navin Shenoy), возглавляющий бизнес датацентров в Intel.

Чипы для центров обработки данных, обеспечивающих работу мобильных и веб-сервисов, стали приоритетными для Intel в последние годы, отмеченные стагнацией рынка персональных компьютеров. Но 27 июля акции компании упали на 8,5 пунктов, после того как её бизнес ЦОД не оправдал ожидания аналитиков с Уолл-Стрит.

Теперь наблюдатели прогнозируют, что Intel утратит часть позиций в данном сегменте, а виновна в этом будет AMD, готовящая на следующий год выпуск чипов с детализацией 7 нанометров.

Современные чипы Intel имеют вдвое большее расстояние между транзисторами, что означает меньшие быстродействие и энергоэффективность. Собственные 10-нанометровые чипы для ПК компания сможет выпустить лишь во втором полугодии 2019 г., а аналогичные серверные — в 2020 г. Таким образом, большинство аналитиков полагает, что AMD обеспечила себе технологическое лидерство на следующий год.

И всё же, ряд наблюдателей считает маловероятным утрату Intel доминирующих позиций на рынке ЦОД. Так, Дэн Хатчeсон (Dan Hutcheson), CEO VLSI Research, указывает, что несмотря на отставание Intel в гонке детализации, возможности её процессоров больше, чем можно судить, опираясь на этот параметр. «Они отстают не на два поколения, а скорее на половину поколения», — отмечает он.

Поэтому, ближайшие планы Intel связаны с укреплением этого скрытого потенциала: с оптимизацией её чипов, «сшиванием» процессоров с памятью Optane, выпуском полузаказных ИС и программных решений. Всё вместе это позволит, по мнению Шеноя, соперничать с системами конкурентов в цене и вычислительной мощности.

Тандем процессоров и технологии Optane, которую Intel разрабатывала на протяжении последнего десятилетия, должен появиться в следующем году.

Граница сети поумнеет с Edge TPU

Полное или хотя бы частичное перемещение на границу сети IoT аналитики данных и интеллектуальных систем принятия решений сулит много выгод. Обработка и анализ данных на том месте, где они были получены, позволит существенно сократить сетевой трафик IoT, который по прогнозам IDC, превысит 40 трлн гигабайт в 2015 г. Функционирование IoT будет меньше зависеть от качества соединения с центральными серверами, а безопасность возрастёт, так как приватные ключи не будут покидать пределы граничного устройства.

Промышленные компании смогут обнаруживать неполадки высокопроизводительных сборочных линий в реальном времени, розничные торговцы будут получать сигнал сразу, когда закончатся складские запасы товара, а безопасность автомобилей повысится благодаря интеллектуальным технологиям предотвращения столкновений, маршрутизации дорожного движения и отслеживания внимания водителя за рулём.

Как правило, реализация в IoT-системах принятия решения в реальном времени наталкивается на проблемы высокой стоимости, слишком больших габаритов, медленного отклика, перерасхода энергии и пр.

Изменить положение в лучшую сторону попыталась Google. На второй день её конференции Cloud Next компания анонсировала два новых продукта — Edge TPU и Cloud IoT Edge, которые призваны упростить разработку и широкомасштабное развёртывание интеллектуальных подключенных устройств.

Граница сети поумнеет с Edge TPU

Edge TPU это заказной чип ASIC, позволяющий запускать модели машинного обучения на движке TensorFlow Lite на границе сети. Данный чип подвергся тщательной оптимизации для получения наилучших энерго- и ценовой эффективности в компактном форм-факторе. Edge TPU может работать в тандеме с Cloud TPU, то есть тренировку модели можно ускоренно проводить в облаке, а моментальное построение умозаключений осуществлять локально, там где находятся сенсоры.

ПО Cloud IoT Edge расширяет мощные функции обработки данных и машинного обучения Google Cloud на шлюзы, камеры и конечные устройства, делая приложения IoT более умными, безопасными и надёжными.

Cloud IoT Edge работает на Android Things или Linux OS-based, а его ключевыми runtime-компонентами являются:

  • среда выполнения для устройств класса шлюз, имеющих по крайней мере один процессор, обеспечивающая локальные хранение, трансляцию, обработку и интеллектуальный анализ данных на границе сети

  • Edge IoT Core runtime, которая более надежно соединяет граничные устройства с облаком, позволяет обновлять ПО и прошивку и управлять обменом данными с Cloud IoT Core.

  • Edge ML runtime — делает выводы на основе обученной модели, значительно сокращая задержку и улучшая универсальность граничных устройств. Благодаря интерфейсу с TensorFlow Lite позволяет выполнять запускать модели на обычных или графических процессорах или на Edge TPU в шлюзах и конечных устройствах, таких как камеры.

Для тех, кто хочет поскорее приступить к созданию и тестированию приложений с Edge TPU, Google подготовила комплект разработчика. В него входит система на модуле (SOM) с Edge TPU, центральным процессором NXP, адаптером Wi-Fi и безопасным элементом от Microchip в компактном форм-факторе. Разработчики смогут получить набор в октябре 2018 г.

Из участников экосистемы IoT, уже работающих над созданием оборудования с Edge TPU, Google назвала чипмейкеров NXP и ARM, производителей шлюзов — Accton, Harting, Hitachi Vantara, Nexcom, Nokia и решений для границы сети — ADLINK Technology, Kelvin, Olea Edge Analytics, Smart Catch, Trax.

L2RS — первый алгоритм безопасности для пост-квантовой эры

Прогресс в технологиях информационной безопасности, как правило, представляет собой гонку преследования: хакеры изобретают новые способы взлома, от которых приходится искать действенную защиту. Эксперты из университета Монаша в Мельбурне (Австралия) нарушили эту причинно-следственную связь. Ими разработан первый алгоритм, способный защитить приватность данных от атак с использованием ещё не созданных квантовых суперкомпьютеров.

Алгоритм Lattice-Based One Time Ring Signature (L2RS) был анонсирован на 23-й Австралазийской конференции по информационной безопасности и приватности (ACISP 2018), проходившей 11-13 июля в г. Вуллонгонг (Австралия). Его разработка стала результатом более широкого совместного исследовательского проекта университета Монаша, ведущей в Австралии организации в сфере финансовых технологий, CollinStar Capital, и Политехнического университета Гонконга. Проект нацелен на совершенствование Hyper Cash (HCash) как криптовалютной платформы, намного более подвинутой, чем Bitcoin.

«L2RS использует криптографические методы для защиты приватности пользователей. Он способен обеспечить безопасность также в пост-квантовую эру. Даже при наличии будущего мощного квантового компьютера, который легко может взломать современные криптографические алгоритмы, такие как RSA, HCash останется надёжной, и конфиденциальность пользователя сохранится», — заявил доктор Джозеф Лю (Joseph Liu).

Старший лектор Монаша и заведующий университетской лабораторией исследований блокчейн, Лю считает, что в течение следующих 10 лет квантовые вычисления достигнут уровня, позволяющего взломать технологию, которая обеспечивает безопасность блокчейн. К тому времени, по его мнению, блокчейн имеет всё шансы стать новой основой экономических и социальных систем, поэтому крушение данной технологии могло бы иметь самые серьёзные последствия.

Amazon vs Cisco. Выход AWS на рынок коммутаторов сулит 5-кратное снижение цен

Масштабы компании Amazon и агрессивная ценовая тактика делают её притязания на новые рынки плохой новостью для их старожилов. Так, несколько дней назад, покупка Amazon небольшого бизнеса онлайновых аптек PillPack встряхнула весь сектор розничной торговли медикаментами.

Даже неподтвержденные сообщения о том, что Amazon Web Services (AWS) планирует начать продажу собственных сетевых коммутаторов, в прошлую пятницу послали вниз на 5% акции Cisco Systems, разом уменьшив капитализацию этого лидера рынка сетевого оборудования на 11 млрд долл. На 4% упали в цене акции других ведущих игроков данного рынка — Juniper Networks и Arista Networks

Amazon vs Cisco. Выход AWS на рынок коммутаторов сулит 5-кратное снижение цен.

Старт продаж ожидается в следующие 18 месяцев, а цена коммутаторов может быть установлена на 70-80% меньше сопоставимых решений Cisco. Сообщается, что реализация этого проекта частично возложена на Джеймсам Гамильтона (James Hamilton), вице-президента AWS, курирующего разработку датацентров компании.

Несмотря на то, что два осведомлённых источника, на информации которых базируется упомянутая публикация, утверждают, что планы AWS пока не являются окончательными, в деловых кругах очень серьёзно относятся к перспективам компании на рынке коммутаторов для ЦОД, годовой оборот которого составляет 14 млрд долл.

Коммутаторы Amazon будут состоять из ПО с открытым кодом и устройств небрендовой сборки (white-box). Наличие в них встроенного подключения к облачным сервисам AWS устранит одну из самых сложных проблем, поджидающих компании на пути объединения своих частных с публичными облачными сервисами.

Как и другие технологичные компании, AWS уже давно использует коммутаторы white-box в собственных датацентрах, сотрудничая со многими поставщиками небрендового оборудования, включая Celestica, Edgecore Networks и Delta Networks. Работа над соответствующим коммерческим предложением ведётся в Amazon с начала прошлого года. В настоящее время к тестированию уже привлечены несколько заказчиков, что, впрочем, не исключает возможности отказа компании от выпуска окончательных продуктов (такое уже случалось не раз).

В случае если план будет реализован, AWS станет первой крупной облачной компанией, поставляющей коммутаторы white-box на рынок предприятий. AT&T, Google, Microsoft, Facebook и другие, применяют оборудование white-box для доставки облачных сервисов клиентам, но ни одна из них не занимается выпуском коммерческих продуктов.

«Белые» коммутаторы и открытое ПО обеспечивают более высокую степень кастомизации, чем традиционные сетевые продукты от таких компаний, как Cisco. Это позволит клиентам AWS эксплуатировать свои ЦОД с меньшим количеством сетевых инженеров, освобождая их для работы над новыми сетевыми функциями.

Коммутаторы могут стать лишь ступенькой для продвижения AWS в те части облачного бизнеса, которые она ещё не контролирует. Доминирование компании в облачных сервисах и её обширный инфраструктурный опыт создают необходимые предпосылки для этого.

Xen Project заново переписал открытый гипервизор

Гипервизор с открытым исходным кодом, Xen Project Hypervisor, организующий работу виртуальных машин в крупнейших облачных платформах, таких как Amazon Web Services (AWS), Tencent, Alibaba Cloud, Oracle Cloud и IBM SoftLayer, получил наиболее серьёзное в своей 15-летней истории обновление, скрытое за скромным индексом 4.11.

Переработке подверглись все ключевые технологии Xen — поддержка х86, эмуляция устройств, последовательность загрузки. В результате, обновлённый Xen использует меньше кода и имеет более компактную достоверную вычислительную базу (Trusted Computing Base, TCB). Он также стал менее сложным и более удобным в эксплуатации, улучшились производительность и масштабируемость. Более полной, чем когда-либо, стала совместимость с архитектурами ARM.

Значительный прогресс с релизом 4.11 достигнут в области безопасности Xen. Ларс Курц (Lars Kurth), входящий в Консультативный совет Xen Project, отметил в официальном заявлении: «Сообщество проекта Xen действовало быстро, чтобы решить вопросы защиты от Spectre и Meltdown, и продолжило достигать поставленных целей, добавив важные функции в этот релиз».

Курц здесь имеет в виду не просто латание старых дыр в защите.Программисты совместили лучшие качества паравиртуализации (PV) и аппаратной виртуализации (HVM) в PVH. Это упрощает интерфейс между операционными системами, Xen Project Support и Xen Project Hypervisor. Кроме того, уменьшается и «поверхность атаки» гипервизора.

Добавившаяся в этом релизе к PVH DomU экспериментальная поддержка PVH Dom0 уменьшает объём кода Xen в этом режиме приблизительно на 1 млн строк кода QEMU VM. Для использования этой возможности требуются дистрибутивы Linux с поддержкой PVH Dom0 или FreeBSD. Соответствующие патчи будут доступны в следующих магистральных релизах Linux и FreeBSD.

В режиме PVH Xen 4.11 также может работать с немодифицированными PV-гостями. Это облегчает администрирование старых паравиртуализованных дистрибутивов и, опять же, уменьшает поверхность атаки.

Все перечисленное вместе с остальными усовершенствованиями производительности, безопасности и ремонтопригодности демонстрирует твердость намерений сообщества Xen сделать его лучшим гипервизором для широкого круга сценариев использования, от гигантских приватных облачных сред до встраиваемых систем.

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT