| 0 |
|

На заході «Advancing AI» у Сан-Франциско Advanced Micro Devices продемонструвала свій чип наступного покоління - прискорювач AMD Instinct MI325X, а також нову мережеву платформу на базі блоку обробки даних AMD Pensando Salina.
Запуск нових технологій запланований на наступний рік, і AMD обіцяє, що вони встановлять новий стандарт з погляду продуктивності генеративного АІ.
«Наша мета - зробити AMD лідером у галузі штучного інтелекту, - заявила генеральний директор компанії Ліза Су (Lisa Su) у своїй доповіді на заході.
Зараз AMD спирається на успіх свого AI-чіпа MI300X, який був випущений на початку цього року і, за прогнозами, принесе компанії понад 4 млрд дол.
І ось тепер анонсовано AMD Instinct MI325X, який побудований на архітектурі CDNA 3 і «забезпечує блискавичну продуктивність у поєднанні з високою енергоефективністю для найбільш вимогливих завдань штучного інтелекту», як зазначають у компанії.
На пресбрифінгу Бред МакКреді (Brad McCredie), корпоративний віцепрезидент AMD по GPU-платформам, заявив, що показники MI325X більш ніж удвічі перевершують наявний MI300.
MI325X має 256 ГБ високопродуктивної пам'яті HBM3E і пропускну здатність до 6 Тбіт/с. Зазначається, що це в 1,8 раза та в 1,3 раза більше відповідно ніж у найпотужнішого на сьогодні чіпа Nvidia для штучного інтелекту - Nvidia H200. Крім того, MI325X забезпечує в 1,3 раза більшу пікову теоретичну продуктивність FP16 і FP8, ніж його найпотужніший конкурент.
«Ця провідна в індустрії пам'ять та обчислення можуть забезпечити в 1,3 раза більшу продуктивність виводу, ніж H200 на Mistral 7B при FP16, та в 1,2 раза більшу продуктивність виводу на Llama 3.1 70B при FP8», - зазначив Бред МакКреді.
AMD заявила, що запуск MI325X у виробництво запланований на четвертий квартал, а системи на його базі вже анонсували Dell Technologies, Hewlett Packard Enterprise, Lenovo Group та Super Micro Computer.
На заході компанія також презентувала деталі нового процесора EPYC, який раніше мав кодову назву «Turin» і призначений для корпоративних, хмарних та АІ робочих навантажень.
Процесори AMD EPYC Series 5-го покоління будуть побудовані на архітектурі ядра Zen 5, при цьому компанія прагне запропонувати широкий діапазон кількості ядер для різних сценаріїв використання, починаючи з восьми й закінчуючи 192 ядрами для найвимогливіших робочих навантажень.
Нова архітектура ядра «Zen 5» забезпечує на 17% більше інструкцій за такт (IPC) для корпоративних і хмарних робочих навантажень і на 37% більше IPC в штучному інтелекті та високопродуктивних обчисленнях (HPC) порівняно з «Zen 4».
Компанія пообіцяла, що чіпи EPYC 5-го покоління ґрунтуватимуться на продуктивності наявної платформи EPYC 4-го покоління, а її найбільший 192-ядерний чіп серії EPYC 9005 у 2,7 раза перевищує продуктивність найпотужнішого наявного чіпа. Тим часом новий 64-ядерний EPYC 9575F адаптований для робочих навантажень штучного інтелекту на базі GPU, пропонуючи продуктивність 5 Гбіт/с, що забезпечує на 28% швидшу обробку даних, ніж конкурентні чіпи.
За заявою AMD, у порівнянні з конкурентами:
192-ядерний процесор EPYC 9965 має до 3,7 раза вищу продуктивність у наскрізних робочих навантаженнях AI, таких як TPCx-AI (похідні), які є критично важливими для ефективного підходу до генеративного AI.
У моделях генеративного AI малого та середнього корпоративного класу, таких як Llama 3.1-8B від Meta, EPYC 9965 забезпечує в 1,9 раза більшу пропускну здатність порівняно з конкурентами.
Нарешті, спеціально створений процесор EPYC 9575F для хост-вузла штучного інтелекту може використовувати підвищення максимальної частоти до 5 ГГц, щоб допомогти кластеру штучного інтелекту з 1000 вузлів обробляти до 700 000 токенів висновку в секунду.
Зазначено, модернізувавши центр обробки даних на базі цих нових процесорів для досягнення 391 000 одиниць обчислювальної продуктивності загального призначення SPECrate 2017_int_base, клієнти отримують виняткову продуктивність для різних робочих навантажень, водночас отримуючи можливість використовувати на 71% менше енергії та на ~87% менше серверів. Це дає ІТ-директорам гнучкість: або скористатися перевагами економії місця та енергії, або підвищити продуктивність для повсякденних ІТ-завдань, забезпечуючи при цьому разючу продуктивність AI.
AMD використовує найпоширеніший програмований процесор для гіперскалерів, щоб забезпечити роботу мереж AI наступного покоління. Вони розділені на дві частини: зовнішню, яка доставляє дані та інформацію до кластера AI, і внутрішню, яка керує передачею даних між прискорювачами та кластерами, мережа AI має вирішальне значення для забезпечення ефективного використання процесорів і прискорювачів в інфраструктурі AI.
Щоб ефективно керувати цими двома мережами та забезпечити високу продуктивність, масштабованість і ефективність всієї системи, AMD представила AMD Pensando Salina DPU для зовнішньої мережі та AMD Pensando Pollara 400, першу в галузі мережеву карту для AI з підтримкою консорціуму Ultra Ethernet (UEC), для внутрішньої мережі.
AMD Pensando Salina DPU - це третє покоління найпродуктивніших і програмованих DPU у світі, що забезпечує до 2 разів більшу продуктивність, пропускну здатність і масштабованість порівняно з попереднім поколінням. Підтримуючи пропускну здатність 400 Гбіт/с для швидкої передачі даних, AMD Pensando Salina DPU є критично важливим компонентом мережевих кластерів AI, оптимізуючи продуктивність, ефективність, безпеку і масштабованість для додатків ШІ, керованих даними.
AMD Pensando Pollara 400 з підтримкою UEC, що працює на програмованому ядрі AMD P4, є першою в індустрії мережевою картою для AI з підтримкою UEC. Вона підтримує програмне забезпечення RDMA нового покоління та відкриту мережеву екосистему. AMD Pensando Pollara 400 має вирішальне значення для забезпечення провідної продуктивності, масштабованості та ефективності зв'язку між прискорювачами у внутрішніх мережах.
Як AMD Pensando Salina DPU, так і AMD Pensando Pollara 400 будуть доступні клієнтам у 4 кварталі 24 року і будуть доступні в першій половині 2025 року.
«AMD продовжує виконувати нашу дорожню карту, пропонуючи клієнтам необхідну їм продуктивність і вибір, щоб швидше вивести інфраструктуру AI на ринок», - сказав Форрест Норрод (Forrest Norrod), виконавчий віцепрезидент і генеральний директор бізнес-групи рішень для центрів обробки даних AMD. «Завдяки новим прискорювачам AMD Instinct, процесорам EPYC і мережевим ядрам AMD Pensando, постійному зростанню нашої екосистеми відкритого програмного забезпечення та можливості об'єднати все це в оптимізовану інфраструктуру штучного інтелекту, AMD підкреслює, що володіє критично важливим досвідом для створення та розгортання рішень штучного інтелекту світового класу».

Стратегія охолодження ЦОД для епохи AI
| 0 |
|

