`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

NVIDIA удвоила объем памяти своего самого мощного GPU A100 до 80 ГБ

0 
 

NVIDIA удвоила объем памяти своего самого мощного GPU A100 до 80 ГБ

Компания NVIDIA представила графический процессор NVIDIA A100 80GB для супервычислительной платформы NVIDIA HGX AI, с вдвое большей памятью, чем у предшественника, обеспечивая исследователям и инженерам беспрецедентную скорость работы и производительность, которая позволит совершать новые открытия в области искусственного интеллекта и науки.

Как отмечается, новый процессор A100 с технологией HBM2e обладает удвоенным объемом высокоскоростной памяти до 80 ГБ по сравнению с A100 40GB и обеспечивает полосу пропускания более 2 терабайт в секунду.

«Для достижения высоких результатов в исследованиях высокопроизводительных вычислений и искусственного интеллекта необходимо создавать самые большие модели, но для этого требуется больше объема памяти и пропускной способности, чем когда бы то ни было, - заявил Брайан Катанзаро (Bryan Catanzaro), вице-президент NVIDIA по прикладным исследованиям в области глубокого обучения. - Графический процессор A100 80GB обеспечивает вдвое больший объем памяти, чем его предшественник, который был представлен всего полгода назад, и преодолевает барьер в 2 ТБ/с, позволяя исследователям решать самые важные мировые задачи науки и больших данных».

GPU NVIDIA A100 80GB будет доступен в системах NVIDIA DGX A100 и NVIDIA DGX Station A100, которые также анонсированы сегодня и появятся в продаже уже в этом квартале.

Ведущие поставщики систем - Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta и Supermicro - начнут поставки систем, построенных на интегрированных базовых платах HGX A100 в конфигурациях с четырьмя или восемью GPU A100 80 ГБ, в первом полугодии 2021 года.


Производитель уверяет, что 80 ГБ модель, обладающая широкими возможностями A100 40GB, идеально подходит для широкого спектра приложений с высокими требованиями к памяти.

Для обучения ИИ в моделях рекомендательных систем, таких, как DLRM, есть огромные таблицы, представляющие миллиарды пользователей и миллиарды продуктов. A100 80GB обеспечивает ускорение до 3-х раз, поэтому компании могут быстро переобучать эти модели для создания более точных рекомендаций.

A100 80GB также позволяет обучать самые большие модели с большим количеством параметров, подходящих для одного сервера на базе HGX, такого как GPT-2, модель обработки естественного языка со сверхчеловеческой способностью генерировать текст. Это устраняет необходимость в параллельных архитектурах данных или моделей, которые могут занимать много времени при создании и медленно работать на множестве узлов.

Благодаря технологии MIG (multi-instance GPU) процессор A100 можно разделить на инстансы, до семи, каждый с 10 ГБ памяти. Это обеспечивает безопасную аппаратную изоляцию и максимально увеличивает использование GPU для множества небольших рабочих задач. Для инференса моделей автоматического распознавания речи, таких как RNN-T, один инстанс MIG A100 80GB может работать с пакетами гораздо большего размера, обеспечивая в 1,25 раза более высокую скорость инференса в работе.

В тесте аналитики больших данных для розничной торговли в терабайтном диапазоне A100 80GB повышает производительность до 2 раз, что делает его идеальной платформой для быстрого получения аналитических данных по самым большим наборам данных. Компании могут принимать ключевые решения в реальном времени по мере динамического обновления данных.

A100 80GB может обеспечить огромное ускорение и в научных приложениях, таких, как прогнозирование погоды и квантовая химия. Quantum Espresso, приложение имитации материалов, увеличило пропускную способность почти в 2 раза с одним узлом A100 80 ГБ.

«Высокая пропускная способность и большая емкость памяти критически важны для достижения высокой производительности в суперкомпьютерных приложениях, - говорит Сатоши Мацуока (Satoshi Matsuoka), директор Центра вычислительных наук RIKEN. - NVIDIA A100 с 80 ГБ памяти HBM2e, обеспечивающей высочайшую пропускную способность в 2 ТБ в секунду, поможет значительно повысить производительность приложений».

Ключевые характеристики A100 80GB

A100 80GB включает в себя множество потрясающих функций архитектуры NVIDIA Ampere:

    • Тензорные ядра третьего поколения: до 20 раз выше скорость в ИИ по сравнению с предыдущим поколением Volta с новым форматом TF32, а также в 2.5 раза выше в вычислениях FP64 для HPC, в 20 раз выше в вычислениях INT8 для инференса и поддержка формата BF16.
    • Больше и быстрее память HBM2e: удвоение пропускной способности памяти и впервые в индустрии полоса пропускания свыше 2 ТБ/с.    
    • Технология MIG: удвоение памяти на изолированный инстанс, до семи MIG-систем с 10ГБ памяти каждая.
    • Структурная разреженность: ускорение до 2 раз в инференсе разреженных моделей.
    • NVLink и NVSwitch третьего поколения: удвоение полосы пропускания между GPU по сравнению с предыдущей технологией связи ускоряет передачу данных на GPU для ресурсоемких задач до 600 ГБ/с.

Дізнайтесь більше про мікро-ЦОД EcoStruxure висотою 6U

0 
 

Напечатать Отправить другу

Читайте также

 
 

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT