`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Nvidia презентувала прискорювачі штучного інтелекту нового покоління

+11
голос
Nvidia на конференції GTC 2023 оголосила про нове покоління апаратного забезпечення, призначеного для завдань виведення штучного інтелекту, щоб забезпечити роботу найсучасніших генеративних моделей штучного інтелекту, які будуються сьогодні.
 
Сьогодні компаніям потрібні величезні обчислювальні ресурси для роботи зі штучним інтелектом, і саме тут на допомогу приходить Nvidia з її надзвичайно потужними графічними процесорами. Компанія анонсувала останнє покоління платформ Nvidia DGX з новими графічними процесорами Nvidia H100.
 
Графічні процесори H100 засновані на архітектурі Nvidia Hopper і мають вбудований Transformer Engine, оптимізований для розробки, навчання і розгортання генеративного АІ, великих мовних моделей і систем рекомендацій АІ. За словами компанії, H100 дозволяє навчати АІ в дев’ять разів швидше, ніж графічні процесори попереднього покоління, і в 30 разів швидше робити висновки на основі АІ на LLM.
 
Окрім графічних процесорів H100, Nvidia також представила нове покоління спеціалізованих прискорювачів АІ та чіпів для виведення висновків та новий процесор для центрів обробки даних.
 
Користувачі можуть отримати доступ до нових графічних процесорів H100 у новітній платформі Nvidia DGX H100. Вона працює на базі восьми графічних процесорів H100, об’єднаних високошвидкісними інтерконекторами Nvidia NVLink з використанням Quantum InfiniBand і Spectrum Ethernet. За словами Nvidia, платформа забезпечує 32 петафлопс обчислювальної продуктивності, а швидкість роботи в мережі вдвічі вища, ніж у попередньої платформи DGX A100.
 
DGX H100 інтегрована з повним стеком програмного забезпечення Nvidia AI, включаючи останню версію Nvidia AI Enterprise і Nvidia Base Command, яка служить його операційною системою.
 
Підприємствам не потрібно купувати власну платформу DGX H100, оскільки вони також можуть отримати доступ до графічних процесорів H100 в хмарі партнерів, включаючи Oracle, Microsoft і Amazon Web Services. Всі три хмарні провайдери анонсували сервіси та екземпляри на базі H100 GPU.
 
«Неймовірний потенціал генеративного АІ надихає практично кожну галузь на переосмислення своїх бізнес-стратегій і технологій, необхідних для їх досягнення, - наголосив генеральний директор Nvidia Дженсен Хуанг (Jensen Huang) у своєму виступі. - Nvidia та наші партнери швидко рухаються вперед, щоб надати найпотужнішу у світі обчислювальну платформу для АІ тим, хто створює додатки, які докорінно змінять те, як ми живемо, працюємо та розважаємося».
 
Окрім графічного процесора H100, Nvidia також представила додаткове обладнання, призначене для спеціалізованих завдань АІ. Nvidia L4 - це однослотовий низькопрофільний прискорювач для АІ, відео та графіки, який можна встановити в будь-який стандартний сервер, де він може декодувати, запускати моделі та кодувати відео до 120 разів швидше, ніж найкращі платформи на базі центрального процесора. Він також може одночасно обробляти до 1040 HD-потоків або обробляти графіку в чотири рази швидше, ніж попередній прискорювач Nvidia T4. Google Cloud оголосив про ранній доступ до Nvidia L4 через свою хмарну платформу.
 
Існує також варіація під назвою Nvidia L40, яка є прискорювачем, розробленим спеціально для генерації зображень на основі штучного інтелекту. За словами Nvidia, L40 слугує двигуном платформи Nvidia Omniverse для створення та запуску 3D-метапрограм.
 
Тим часом Nvidia H100 NVL - це спеціалізований чіп для LLM-інференції в реальному часі. Це GPU, який можна встановити в будь-який сервер зі слотами PCIe. Він оснащений двома графічними процесорами H100 в корпусі подвійної ширини з мостом NVLink, що забезпечує загальний обсяг пам’яті 188 ГБ і в 12 разів більшу пропускну здатність, ніж у стандартного чіпа HGX A100. Nvidia заявила, що він призначений для розгортання масивних LLM, таких як ChatGPT, у великих масштабах, і здатний до 12-кратного збільшення продуктивності виведення порівняно з графічним процесором A100.

Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365

+11
голос

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT