`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Intel обещает увеличить производительность чипа для нейросетей в 4 раза

0 
 

Intel обещает увеличить производительность чипа для нейросетей в 4 раза

Руководитель группы Intel AI, Навин Рао (Naveen Rao), на организованной этим чипмейкером в Сан-Франциско (штат Калифорния) конференции для разработчиков искусственного интеллекта представил будущий процессор, который должен значительно ускорить создание моделей машинного обучения.

Чип Nervana NNP-L1000 планируется выпустить ближе к концу следующего года. По производительности он должен в 3-4 раза превосходить первое поколение специализированных нейропроцессоров Nervana Neural Network Processors (NNP), показанное в октябре прошлого года.  Как следует из названия, в основу этих устройств положены технологии компании Nervana Systems, которую Intel приобрела в 2016 г. за 400 млн долл.

По информации Intel, прототипы NNP демонстрируют коэффициент использования 96,4% при обработке квадратных матриц, широко применяемых в алгоритмах машинного обучения. «Конкуренты говорят о впечатляющих теоретических цифрах, но в реальном мире вы получаете низкое использование», – заявил Рао на своём утреннем выступлении.

Он также подчеркнул, что, благодаря программным изменениям, внесённым Intel в архитектуру Xeon, эти чипы сегодня используются большинством AI-приложений. В плохо завуалированном выпаде в адрес Nvidia, чьи GPU стали стандартом для запуска нейросетей, Рао «развеял миф» о том, что GPU в 100 раз быстрее центральных процессоров, таких как Xeon. «Это просто ложь», – настаивает он.

Превознося гибкость центральных процессоров Intel, пригодных для разных типов вычислительных нагрузок, Рао также не забыл о других типах чипов этой компании, ориентированных на специальные задачи искусственного интеллекта.

Помимо серии Nervana, Intel предлагает массивы программируемой логики (FPGA), которые можно переконфигурировать для таких задач, как недавно запущенный компанией Microsoft Project Brainwave. На устройства с ограничениями по энергопотреблению рассчитаны экономичные модули Movidius Visual Processing Unit.

Главным предназначением NNP-L1000 Intel видит сокращение тренировочной фазы корпоративных проектов AI. Ускорению отнимающего много времени процесса повышения точности моделей на выборке данных будет способствовать появившаяся в чипе поддержка формата bfloat16. В дальнейшем, по словам Рао, такая поддержка будет распространена Intel на Xeons и FPGA.

0 
 

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT