+11 голос |
Зміцнюючи суверенітет Японії в галузі штучного інтелекту та зміцнюючи її можливості в галузі досліджень та розробок, Національний інститут передових промислових наук та технологій Японії (AIST) інтегрує тисячі графічних процесорів NVIDIA H200 з тензорними ядрами у свій суперкомп'ютер AI Bridging Cloud Infrastruct.
Як повідомляється, система HPE Cray XD буде оснащена мережею NVIDIA Quantum-2 InfiniBand, що забезпечує чудову продуктивність та масштабованість.
ABCI 3.0 - це новітня версія великомасштабної японської відкритої обчислювальної інфраструктури штучного інтелекту, призначена для просування досліджень та розробок в галузі AI. Ця співпраця наголошує на прагненні Японії розвивати свої можливості штучного інтелекту та зміцнювати свою технологічну незалежність.
"У серпні 2018 року ми запустили ABCI, першу у світі великомасштабну відкриту обчислювальну інфраструктуру штучного інтелекту", - сказав виконавчий директор AIST Йосіо Танака (Yoshio Tanaka). «Ґрунтуючись на нашому досвіді управління ABCI за останні кілька років, ми зараз оновлюємося до ABCI 3.0. У співпраці з NVIDIA та HPE ми прагнемо перетворити ABCI 3.0 на обчислювальну інфраструктуру, яка сприятиме подальшому розвитку можливостей досліджень та розробок у галузі генеративного штучного інтелекту в Японії».
"Оскільки генеративний штучний інтелект готується стати каталізатором глобальних змін, дуже важливо швидко розвивати можливості досліджень і розробок в Японії", - сказав продюсер AIST Solutions та керівник відділу операцій ABCI Хіротака Огава (Hirotaka Ogawa). «Я впевнений, що це велике оновлення ABCI у нашій співпраці з NVIDIA та HPE зміцнить лідерство ABCI у вітчизняній промисловості та наукових колах, підштовхнувши Японію до глобальної конкурентоспроможності у галузі розробки штучного інтелекту та послуживши основою для майбутніх інновацій».
ABCI 3.0 створений та управляється компанією AIST, її дочірньою компанією AIST Solutions та її системним інтегратором Hewlett Packard Enterprise (HPE).
"Забезпечення доступності та інклюзивності AI має вирішальне значення для стимулювання інновацій у різних галузях і посилення впливу на суспільство", - сказав Антоніо Нері (Antonio Neri), президент і генеральний директор HPE. "Ми пишаємося тим, що AIST обрала перевірені системи та досвід HPE у сфері AI в поєднанні з провідною в галузі платформою прискорених обчислень NVIDIA для створення свого хмарного сервісу AI. Система AIST дозволить державним і приватним організаціям просувати дослідження, стимулювати інновації та створювати цінність за допомогою генеративного AI".
Проєкт ABCI 3.0 підтримується з боку Міністерства економіки, торгівлі та промисловості Японії, відомого як METI, для зміцнення його обчислювальних ресурсів через Фонд економічної безпеки та є частиною ширшої ініціативи METI вартістю 1 млрд дол., яка включає як зусилля ABCI, так і інвестиції у хмару AI-обчислень.
Дженсен Хуанг, засновник та генеральний директор компанії NVIDIA Дженсен Хуанг (Jensen Huang), підкреслив, що «фабрики штучного інтелекту» — центри обробки даних нового покоління, призначені для вирішення найбільш ресурсомістких завдань штучного інтелекту, мають вирішальне значення для перетворення величезних обсягів даних на інтелект.
Завдяки центру обробки даних надвисокої щільності та енергоефективному дизайну ABCI забезпечує надійну інфраструктуру для розробки програм штучного інтелекту та великих даних.
Очікується, що система з'явиться в мережі до кінця цього року та запропонує найсучасніші ресурси для досліджень та розробок у галузі AI. Вона буде розташована у Касіва, недалеко від Токіо.
Анонсоване рішення запропонує:
6 ексафлопс обчислювальної потужності AI без розрідженості.
410 петафлопс подвійної точності загальної обчислювальної потужності.
Кожен вузол підключений через платформу Quantum-2 InfiniBand зі швидкістю 200 ГБ/с по двох секціях.
Технологія NVIDIA складає основу цієї ініціативи: сотні вузлів, кожен із яких оснащений 8 графічними процесорами H200, підключеними до NVLlink, забезпечують безпрецедентну обчислювальну продуктивність та ефективність.
Нагадаємо, NVIDIA H200 - перший графічний процесор, що пропонує понад 140 ГБ пам'яті HBM3e зі швидкістю 4,8 ТБ/с. Більш об'ємна та швидка пам'ять H200 прискорює генеративний штучний інтелект та LLM, одночасно просуваючи наукові обчислення для робочих навантажень HPC з вищою енергоефективністю та нижчою сукупною вартістю володіння.
Графічні процесори NVIDIA H200 в 15 разів більш енергоефективні, ніж архітектура попереднього покоління ABCI для робочих навантажень штучного інтелекту, таких як генерація токенів LLM.
Інтеграція передового NVIDIA Quantum-2 InfiniBand з внутрішньомережевими обчисленнями, де мережеві пристрої виконують обчислення з даними, розвантажуючи роботу CPU, забезпечує ефективний, високошвидкісний зв'язок із малою затримкою, що вкрай важливо для обробки інтенсивних робочих навантажень штучного інтелекту та великих наборів даних.
ABCI може похвалитися обчислювальними потужностями світового класу та обробки даних, які є платформою для прискорення спільних досліджень та розробок в галузі AI з промисловістю, науковими колами та урядами.
Значні інвестиції METI є свідченням стратегічного бачення Японії щодо розширення можливостей розробки AI та прискорення використання генеративного AI.
Субсидуючи розробку суперкомп'ютерів штучного інтелекту, Японія прагне скоротити час та витрати на розробку технологій штучного інтелекту наступного покоління, позиціонуючи себе як лідера у глобальній сфері AI.
Стратегія охолодження ЦОД для епохи AI
+11 голос |