`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

NVIDIA вносить дизайн платформи Blackwell в екосистему відкритого апаратного забезпечення

0 
 

NVIDIA вносить дизайн платформи Blackwell в екосистему відкритого апаратного забезпечення

Щоб стимулювати розвиток відкритих, ефективних і масштабованих технологій для центрів оброблення даних, компанія NVIDIA оголосила про передачу основоположних елементів дизайну платформи прискорених обчислень NVIDIA Blackwell до Open Compute Project (OCP) і розширення підтримки стандартів OCP з боку NVIDIA Spectrum-X.

Повідомляється, на Глобальному саміті OCP цього року NVIDIA планує поділитися зі спільнотою OCP ключовими частинами електромеханічного дизайну системи NVIDIA GB200 NVL72, включно з архітектурою стійки, механікою обчислювальних і комутаційних лотків, специфікацією рідинного охолодження та тепловим середовищем, а також об'ємом кабельних картриджів NVIDIA NVLink - для підтримки вищої щільності обчислень і пропускної спроможності мережі.

NVIDIA вже зробила кілька офіційних внесків в OCP для кількох поколінь апаратного забезпечення, включно зі специфікацією дизайну базової плати NVIDIA HGX H100, щоб допомогти екосистемі забезпечити ширший вибір пропозицій від світових виробників комп'ютерів і розширити впровадження AI.

Крім того, розширена відповідність мережевої платформи NVIDIA Spectrum-X Ethernet специфікаціям, розробленим товариством OCP, дає змогу компаніям розкрити потенціал продуктивності AI-фабрик, встановлюючи визнане OCP обладнання, зберігаючи свої інвестиції та підтримуючи узгодженість програмного забезпечення.

«Ґрунтуючись на десятирічній співпраці з OCP, NVIDIA працює разом із лідерами індустрії над специфікаціями та дизайном, що можуть бути широко розповсюджені в усіх центрах обробки даних», - сказав Дженсен Хуанг (Jensen Huang), засновник і генеральний директор NVIDIA. «Розвиваючи відкриті стандарти, ми допомагаємо організаціям по всьому світу використовувати весь потенціал прискорених обчислень і створювати AI-фабрики майбутнього».

Система GB200 NVL72 заснована на модульній архітектурі NVIDIA MGX, яка дає змогу виробникам комп'ютерів швидко і з мінімальними витратами створювати широкий спектр інфраструктур центрів обробки даних.

Платформа з рідинним охолодженням об'єднує 36 CPU NVIDIA Grace і 72 GPU NVIDIA Blackwell у стійковому виконанні. Завдяки домену NVIDIA NVLink на 72 GPU система працює як єдиний масивний GPU і забезпечує 30-кратну швидкість обчислень у реальному часі для великих мовних моделей із трильйонами параметрів, як порівняти з NVIDIA H100 Tensor Core GPU.

Мережева платформа NVIDIA Spectrum-X Ethernet, яка тепер містить нове покоління NVIDIA ConnectX-8 SuperNIC, підтримує стандарти OCP Switch Abstraction Interface (SAI) і Software for Open Networking in the Cloud (SONiC). Це дає змогу клієнтам використовувати адаптивну маршрутизацію Spectrum-X і контроль перевантажень на основі телеметрії для прискорення продуктивності Ethernet у масштабованій інфраструктурі AI.

Мережеві карти ConnectX-8 SuperNIC забезпечують прискорену роботу мережі на швидкості до 800 Гбіт/с і програмовані механізми обробки пакетів, оптимізовані для масштабних робочих навантажень AI. Мережеві карти ConnectX-8 SuperNIC для OCP 3.0 будуть доступні наступного року і дозволять організаціям створювати дуже гнучкі мережі.

У міру того, як світ переходить від обчислень загального призначення до прискорених і AI обчислень, інфраструктура центрів обробки даних стає дедалі складнішою. Щоб спростити процес розробки, NVIDIA тісно співпрацює з 40+ світовими виробниками електроніки, які постачають ключові компоненти для створення фабрик AI.

Крім того, широке коло партнерів впроваджує інновації та будує на базі платформи Blackwell, включно з Meta, яка планує надати в OCP свою архітектуру стійок Catalina AI на базі GB200 NVL72. Це дає виробникам комп'ютерів гнучкі можливості для створення систем з високою щільністю обчислень і задоволення висхідних потреб центрів обробки даних у продуктивності та енергоефективності.

«NVIDIA вже багато років робить значний внесок у відкриті обчислювальні стандарти, включно з їхньою платформою для високопродуктивних обчислень, що була основою нашого сервера Grand Teton протягом останніх двох років», - сказав Йі Джун Сонг (Yee Jiun Song), віцепрезидент з інженерних питань у Meta. «У міру того, як ми прагнемо задовольнити наростальні обчислювальні потреби великомасштабного штучного інтелекту, останні досягнення NVIDIA в галузі дизайну стійок і модульної архітектури допоможуть прискорити розробку і впровадження інфраструктури AI в індустрії».

Про DCIM у забезпеченні успішної роботи ІТ-директора

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT