`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

О последних тенденциях в области HPC

+22
голоса

Институт кибернетики НАНУ им. В. М. Глушкова и НТУ «КПИ им. Игоря Сикорского» провели в последней декаде октября Пятую международную конференцию по высокопроизводительным вычислениям HPC-UA 2018, посвященную 100-летию НАНУ.

Конференция открылась докладом Владимира Савяка о тенденциях и инновациях в области НРС и СХД на примерах того, что разрабатывается в НРЕ.

Разработки НРЕ строятся на концепции открытой архитектуры, так что любой член сообщества может их использовать. Речь идет о ведомых памятью (memory driven) суперкомпьютерах с производительностью порядка экзафлопс (10 18 FLOPS).

Несколько лет назад НРЕ получила грант от Министерства энергетики США для разработки экзафлопсных вычислений, что явилось очень важным для компании, поскольку она получила финансирование для разработки того, что является полезным не только для ИТ-сообщества, но и для всех.

 

О последних тенденциях в области HPC

Владимир Савяк: «НРЕ сосредоточилась на разработке четырех основных вещей: полосе пропускания памяти, минимизации времени ожидания, компактности и энергозависимости»

Концепция Memory Driven Computing (MDC) – это не тип простой и общей технологической концепции. Она, в частности, предполагает кремниевую фотонику, являющейся очень важной сегодня, в мире огромного объема данных, который очень быстро увеличивается. И также для развития консорциума Gen-Z, потому что Gen-Z - это новый протокол, который, возможно, станет основным для разработки взаимосвязи в будущих вычислениях.

Практика показывает, что корреляция между двумя основными метриками – памятью и производительностью вычислений, то есть объемом памяти, пропускной способностью памяти, шириной полосы инжекции (скорость, с которой узел передает данные в сеть) на 1 FLOPS – для суперкомпьютеров уменьшается. Это является проблемой, потому что, приближаясь к экзофлопсам, необходимый объем памяти для запуска приложений становится все большим и потребляется все больше энергии. Вот почему НРЕ фокусируется на разработках, которые бы изменили эту корреляцию, сделали бы память лучше, нарушив эту тенденцию.

Другой важным направлением является обеспечение энергоэффективности, потому что современные экзафлопсные компьютеры потребляют около 600 МВт, что стоит немало денег. Поэтому ведутся разработки, чтобы снизить потребление до 20—30 МВт для таких компьютеров.

НРЕ сосредоточилась на разработке четырех основных технологий. Прежде всего, на полосе пропускания памяти. Здесь есть две важные вещи. Первая – это очень быстрая память с большой полосой пропускания, которая подключается близко к вычислительным элементам. Такую память, называемую HBM (High Bandwidth Memory), можно сегодня видеть у GPU. К сожалению, у нее очень малая емкость ввиду ее высокой стоимости и трудности производства. Вторая – минимизация времени ожидания для внешней памяти. НРЕ полагает, что внешняя память будет очень важна в ближайшем будущем. Далее, компактность памяти. Так, сегодня очень трудно получить большие объемы DRAM, потому что это очень дорого, и она очень часто выходит из строя. Другой проблемой является ее энергозависимость – если питание пропадает, данные теряются. Компания разрабатывает энергонезависимую память, стоимость которой будет очень близка к стоимости внешней флэш-памяти, но производительность будет близка к DRAM. Это не обязательно будет HBM или HMC.

НРЕ также работает над полосой пропускания инжекции. Здесь в центре внимания высокопроизводительный интерфейс соединения, который будет близким к CPU и GPU. И последняя очень важная вещь – это межсекционная полоса пропускания (bisection bandwidth). Она тоже снижается с увеличение скорости вычислений на протяжении последних десяти лет. Для того чтобы повысить межсекционную пропускную способность, компания разрабатывает многопортовые коммутаторы.  Также ведутся работы в области кремниевой фотоники, чтобы получить более высокую производительность каналов.

Затем докладчик перешел к более детальному рассмотрению MDC. Он напомнил о физических ограничениях, препятствующих выполнению закона Мура. Сегодня закон Мура «умер», и это рассматривается как положительное явление для инновационных технологий и, в частности, MDC.

Идея, лежащая в основе MDC, довольно проста. Сегодня основными вычислительными компонентами в компьютере в типичном случае являются материнская плата с CPU и памятью. MDC несколько изменяет эту концепцию. Вся память перемещается в другое место, она делается более быстрой и также делаются быстрее каналы связи с памятью.

Если рассматривать эту концепцию, имея в виду множество CPU, то можно получить выигрыш от внешней памяти, потому что в этом случае имеется не только внешняя выделенная память, но также можно менять тип вычислительных модулей, если есть открытый и всем доступный протокол. Этого нет сегодня, поскольку каждый производитель CPU или GPU диктует, какой должна быть память. И это большая проблема.

Если делать единую память, которая будет иметь большой объем, то при доступе к ней придется иметь дело с семантикой памяти. Если осуществляется доступ к жесткому диску, то в типичном случае выполняется тысячи или даже десятки тысяч операций для считывания нескольких байт для последующих вычислений. Правда, буферизация может несколько ускорить процесс, но в общем это большая проблема. Если переместиться к общей памяти с побайтовой адресацией, то операций становится намного меньше.

Также важно понимать, как выглядит модульная архитектура этой новой системы. В действительности делается разделяемая память, доступ к которой осуществляется с помощью фабрики, но в общем плата с вычислительными элементами и локальной памятью, например, с HBM, должна иметь новые межсоединения. Тогда есть возможность непосредственно установить большой объем памяти.

О последних тенденциях в области HPC

Тамаш Киш: «Цифровая трансформация бизнеса должна коснуться не только больших предприятий, но и SMB»

Был выполнен ряд экспериментов с использованием этой новой концепции с каждодневно запускаемыми приложениями. Она состояла в применении энергонезависимой памяти. Таким образом отпала необходимость поиска данных на диске, и это принесло реальное преимущество. Но когда был изменен алгоритм и переосмыслена обработка потоков, были получены значительные улучшения. Конечно, нельзя установить требуемый объем памяти в коммерческие компьютеры ввиду ее высокой стоимости, однако была проверена концепция, как машины будущего могут работать.

Для эксперимента была выбрана машина DL560 с несколько модифицированными материнской платой, BIOS и драйверами, но это коммерчески доступная машина. На ней было установлено 1,5 ТБ ОЗУ (1,2 ТБ для данных). На тестах OLAP/OLTP результаты более чем в 70 раз превосходили таковые для систем с NVMe. Здесь проблема в том, что нельзя установить петабайт памяти ввиду ее дороговизны.

Затем выступающий остановился на Gen-Z – будущем протоколе для фабрики памяти. Если устанавливать энергонезависимую память в стандартную машину, то сегодня проблема в том, где ее разместить. Шина PCI имеет существенные ограничения по масштабированию. Но с протоколом Gen-Z можно перейти к фабрике. Фабрика имеет команды семантической памяти. Gen-Z является открытым протоколом, что очень важно. Его могут использовать множество организаций и людей для построения своих систем. Gen-Z позволяет соединять множество типов памяти в разных типах компьютеров. Основным преимуществом является снятие проблемы соединений памяти и вычислительных блоков. Протокол дает возможность менять память и вычислительные блоки, что положительно влияет на рынок.

Важным является также то, что Gen-Z может быть использован не только для материнских плат, поскольку он не является локальным протоколом. Этот протокол пригоден для вычислительных систем разных масштабов.

В лабораториях НРЕ разрабатывается ряд новых вычислительных архитектур. Основная причина – «смерть» закона Мура. К новым архитектурам относятся нейроморфные компьютеры на базе мемристоров. Сегодня стоит задача достичь такого технологического уровня, чтобы получить приемлемую цену, производительность и емкость, чтобы удовлетворить требованиям рынка. Ставится также цель выполнять вычисления в такой памяти.

Другим типом компьютера является оптический компьютер. Это также очень интересное решение, которое поможет решить NP-проблему. Уже существует прототип чипа с тысячами оптических вычислительных элементов.

В заключение докладчик выразил уверенность, что «смерть» закона Мура подтолкнет рынок к разработке новых архитектур, которые принесут множество интересных решений в области высокопроизводительных вычислений.

Цифровая трансформация бизнеса должна коснуться не только больших предприятий, но и SMB. Как поддержать производство в этом сегменте с помощью облачных решений и высокопроизводительных вычислений, рассказал проф. Вестминстерского университета Тамаш Киш (Tamas Kiss).

О последних тенденциях в области HPC

Габриеле Пьерантони: «Принятие облачных вычислений SMB и государственным сектором по-прежнему относительно невелико из-за ограниченной гибкости на уровне приложений и проблем безопасности»

Сегодня производственный сектор  для цифровизации бизнеса нуждается в ИКТ. Однако менее 25% производственных компаний в Европе получают прибыль от решений, поддерживающих ИКТ. Чтобы повысить конкурентоспособность производителей, особенно малых и средних предприятий, инновационные решения с самого начала должны учитывать технологическую и коммерческую масштабируемость. С этой точки зрения облачные сервисы стали идеальным инструментом в области цифровизации производства. Успешные европейские инициативы уже продемонстрировали преимущества облачных инженерных сервисов, объединив ресурсы HPC, вычислительные инструменты и облачные вычислительные платформы.

Одна из них – CloudiFacturing, инновационная акция (Innovation Action), финансируемая ЕС, которая пропагандирует и продвигает передовые решения ИКТ в области моделирования на основе облака и НРС, аналитики для оперативных заводских данных и поддержки в  режиме реального времени для европейских производителей в сегменте SMB, повышая их конкурентоспособность и эффективность использования ресурсов за счет оптимизации производственных процессов и производительности. CloudiFacturing продемонстрировала техническую и экономическую эффективность по результатам более 20 межнациональных прикладных экспериментов с участием производственных компаний, независимых поставщиков ПО, консультантов по технологиям, цифровых инновационных центров и поставщиков ресурсов. CloudiFacturing поднимает результаты предыдущих проектов ЕС CloudFLow и CloudSME на новый уровень и интегрирует их с цифровым рынком. CloudiFacturing станет универсальным магазином для сообществ и станет основной точкой доступа для европейских SMB-производителей к инструментам Cloud / HPC для моделирования процессов производства с использованием реальных заводских данных.

SMB и организации государственного сектора все чаще изучают возможности использования облачных сервисов в повседневной деловой деятельности. Доступ по требованию к услугам и ресурсам в облаке гибким и эластичным способом может привести к значительной экономии затрат благодаря более эффективному и удобному использованию ресурсов. Общий подход к оркестрации облака на уровне приложений представил замдиректора Центра параллельных вычислений Вестминстерского университета Габриеле Пьерантони (Gabriele Pierantoni).

Он отметил, что принятие облачных вычислений SMB и государственным сектором по-прежнему относительно невелико из-за ограниченной гибкости на уровне приложений и проблем безопасности.

Типичные приложения для промышленности и государственного сектора требуют масштабируемости ресурсов и эффективного их использования для обслуживания изменяющегося количества клиентов с динамическими запросами ресурсов и оптимизации потребления ресурсов и затрат. Однако динамическое и интеллектуальное использование ресурсов облачной инфраструктуры с точки зрения облачных приложений не является тривиальным. Несмотря на то, что был предпринят ряд усилий для поддержки интеллектуального и скоординированного развертывания и в меньшей степени оркестровки облачных приложений в режиме реального времени, до сих пор не было найдено всеобъемлющего решения, которое могло бы применяться в крупномасштабных промышленных испытаниях на уровне близком к операционному. Для достижения этих результатов инициатива COLA (https://project-cola.eu/cola-project/) сосредоточилась на двух основных областях: общей структуре под названием MiCADO, которая может быть подключена к различным поставщикам контейнеров и облаков, и гибком и информативном шаблоне для описания политик и приложений на основе спецификаций языка TOSCA. Эти два достижения COLA были успешно протестированы с различными приложениями, которые используются в академических кругах, промышленности и государственном секторе.

На конференции также состоялись сессии, на которых рассматривались алгоритмы и производительность, анализ данных и симуляция, технологии и методы, алгоритмы и моделирование. В целом за два дня конференции было представлены 35 докладов, связанных с использованием высокопроизводительных вычислений.

+22
голоса

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT