`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Nvidia поставила новые рекорды производительности для диалоговых моделей ИИ

+11
голос

GPU-платформа компании Nvidia, предназначенная для разработки и использования систем ИИ, понимающих и реагирующих на обращения на естественном языке, вышла на новый уровень производительности. Анонсированные Nvidia новые ключевые достижения будут иметь заметные последствия для всех, использующих её технологии, поскольку большая часть рекордного кода имеет открытые исходники, написана на PyTorch и проста в использовании.

Главным из анонсированных достижений стало преодоление часового предела тренировки BERT (Bidirectional Encoder Representations from Transformers). Эта высокопроизводительная ИИ-модель считается эталоном для обработки естественного языка (NLP). Платформа Nvidia потратила на обучение этой модели менее часа — 53 минуты. После тренировки BERT делала выводы (то есть, применяла опыт обучения на практике для получения результатов) всего за пару миллисекунд. Это стало ещё одним рекордом, так как лучшим показателем в отрасли сейчас считается 10 мс.

Прорыв, достигнутый Nvidia, важен не сам по себе, а тем выигрышем, который в результате получит любой, кто работает с диалоговыми ИИ-моделями NLP и GPU этой компании. Рекордное время тренировки Nvidia зафиксировала на своих комплексах SuperPOD, состоящих из 92 систем Nvidia DGX-2H с 1472 графическими ускорителями V100. Для построения выводов (inference) использовались GPU Nvidia T4 с Nvidia TensorRT, превосходящие по производительности на несколько порядков величины даже высокооптимизированные центральные процессоры. Но тренировочный код BERT и BERT Sample, оптимизированный для TensorRT, доступны на GitHub всем желающим.

В дополнение к этим достижениям, исследовательское крыло Nvidia создало и обучило крупнейшую в истории языковую модель Megatron. Как и BERT она базируется на технологии Transformers, однако включает 8,3 млрд параметров — в 24 раза больше, чем BERT-Large, величайшая на сегодняшний день реализация базовой модели BERT. Тренировочный код PyTorch для Megatron также находится в открытом доступе и может быть использован сторонними разработчиками для обучения собственных крупномасштабных языковых моделей на базе Transformer.


Вы можете подписаться на наш Telegram-канал для получения наиболее интересной информации

+11
голос

Напечатать Отправить другу

Читайте также

 
 
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT