Nvidia на конференції Siggraph представила оновлену версію свого чипа GH200 Grace Hopper, яка дозволить працювати з більш складними мовними моделями, як наголошують у компанії.
Генеральний директор Nvidia Дженсен Хуанг (Jensen Huang) детально презентував чип, і повідомив, що початок його випуску заплановано провести до кінця року, а у системах він з'явиться літом 2024 року.
За словами Nvidia, нова редакція GH200 є першим у світі процесором з пам'яттю HBM3e, яка на 50% швидша за HBM3, що використовувалася в першій версії GH200. Таке підвищення продуктивності дозволить компаніям більш досконалі моделі штучного інтелекту. Виробник заявляє, що сервер з двома новими чипами GH200 може запускати моделі штучного інтелекту в 3,5 рази більші, ніж аналогічно сконфігурована система на базі попереднього GH200.
Рішення на базі GH200 оснащено 141 ГБ пам'яті.
Новий GH200 запускає моделі AI на двох вбудованих обчислювальних модулях. Перший - це центральний процесор з 72 ядрами, заснований на чіпі Neoverse компанії Arm. Другий модуль - графічний процесор, який пропонує чотири петабайти продуктивності AI.
Хуанг описав дизайн GH200 як когерентний з пам'яттю та кешем. Це означає, що вбудовані GPU і CPU можуть виконувати обчислення на одних і тих же даних замість того, щоб використовувати окремі копії даних, як це було зазвичай. За словами Nvidia, така організація підвищує ефективність обробки.
GH200 сумісний з еталонною архітектурою Nvidia MGX, своєрідним планом для проєктування серверів. Як результат, виробникам обладнання буде відносно просто інтегрувати чип у свої сервери на базі MXP.
Хуанг зазначив, що оновлена версія GH200, оснащена HBM3e, також є основою системи для центрів обробки даних, яка називається Grace Hopper Compute Tray. Кожна така система поєднує один GH200 з чипами Nvidia BlueField-3 та ConnectX-7. Обидва чипи призначені для прискорення мережевого трафіку на сервер і з нього, але BlueField-3 також може прискорювати деякі інші обчислювальні завдання.
До 256 обчислювальних блоків Grace Hopper можуть бути об'єднані в один кластер. За словами Хуана, такий кластер може забезпечити 1 екзафлоп продуктивності AI.
Стратегія охолодження ЦОД для епохи AI