`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Arista Networks презентує платформи наступного покоління для AI дата-центрів

0 
 

Arista Networks презентує платформи наступного покоління для AI дата-центрів

Компанія Arista Networks заявила про випуск свого новітнього сімейства комутаторів, орієнтованих на центри обробки даних (ЦОД) зі штучним інтелектом (AI).

Нове покоління платформи R4 Series базується на чипах Broadcom Jericho3 Qumran3D і розроблено для AI, хмарних ЦОД та розгортування маршрутизованої магістралі. Брендан Гіббс (Brendan Gibbs), віцепрезидент компанії з платформ AI, маршрутизації та комутації, зазначив, що мета полягала в тому, щоб "знизити загальну вартість володіння, забезпечуючи при цьому високу продуктивність, низький час завершення завдань AI, низьке енергоспоживання та інтегровану безпеку".

З погляду продуктивності, система R4 зі швидкістю 800 гігабітів на секунду підтримує кластери ЦОД/AI високої пропускної здатності та встановлює новий рекорд швидкості завдяки впровадженню HyperPorts на 3,2 Тбіт/с.

Хоча порти 3,2 Тбіт/с можуть здатися великою кількістю, у середовищах AI, якщо всі графічні процесори (GPU) працюють на швидкості 400G, це повністю завантажить мережу, що працює на цій швидкості. Це створює потребу у вищій агрегаційній магістралі (aggregation spine). Потужність, яку пропонує Arista, задовольняє сьогоднішні потреби, а також забезпечує певний запас для зростання.

Нові маршрутизатори R4 використовують ефективні дворівневі конструкції "лист-магістраль" (leaf-and-spine) та пропонують низку фіксованих і модульних рішень для масштабованих та багатоцільових варіантів використання. Усі продукти R4 забезпечують повний набір функцій L3 на основі EOS (операційної системи Arista) для сучасних архітектур, використовуючи EVPN, VXLAN, MPLS та SR/SRv6. Кожна система R4 гарантує передбачувану затримку завдяки ієрархічній глибокої буферизації пакетів, у поєднанні з масштабованим захистом від втрати пакетів під час перехідних перевантажень.

Гіббс підкреслив, що зростання AI продовжує стимулювати значний попит на магістралі AI наступного покоління. "Це стимулює потребу у щільному 800 Gig у магістралі", – сказав він. "Ми також бачимо високий попит на традиційні ЦОД. AI отримує всю увагу ЗМІ сьогодні, але значна частина нашого бізнесу – це традиційні мережеві технології ЦОД для підприємств. І ми бачимо зміни швидкості й там. Ми бачимо репатріацію даних із публічної хмари назад до локального середовища, або просто розширення робочого навантаження зі складнощами робочого навантаження на рівні кола."

Оптимальною сферою застосування нової серії маршрутизаторів є високомасштабні магістралі ЦОД, з'єднання ЦОД, навчання та інференс AI, а також масштабована маршрутизація (scale-across routing). Щоб задовольнити попит на високошвидкісну передачу даних при дуже високій щільності портів, необхідній для центрів AI, Arista пропонує низку варіантів щільності, включаючи петабітний масштаб для хмарних/AI-гігантів, нео-хмар, постачальників послуг та сегментів корпоративних клієнтів, згідно з оголошенням компанії.

Безпека є основоположним елементом нових пропозицій на базі 800GbE в сімействах 7800R4 та 7280R4. Кожна платформа підтримує шифрування на швидкості каналу (wire-speed encryption) на кожному порту одночасно за допомогою TunnelSec, включаючи опції MACsec, IPsec та VXLANsec. Технології багатошарового шифрування захищають дані клієнтів під час передачі від зловмисного перехоплення.

Хоча існує кілька мережевих рішень для масштабованих та AI-ЦОД, у галузі точаться суперечки щодо того, чи використовувати мілкі (shallow), чи глибокі (deep) буфери. Використання мілких або глибоких буферів у мережах AI, особливо в моделях глибокого навчання, передбачає компроміс між використанням пам'яті/затримкою та пропускною здатністю/стабільністю навчання. Аргумент проти буферизації полягає в тому, що, коли мережа перевантажена, буфери заповнюються, а потім виснажуються, що створює затримку.

Мартін Галл (Martin Hull), віцепрезидент та генеральний менеджер з хмарних технологій та AI, пояснив: "Буфери існують як механізм захисту. Коли пакет надходить, він відправляється далі та буферизується лише тоді, коли місце призначення не готове його прийняти. У цьому випадку є два варіанти – відкинути його або буферизувати, і перший варіант створює набагато більшу затримку та довший час завершення завдань AI."

Гіббс додав: "Хоча вони називаються глибокими буферами, технічно це ієрархічні гібридні буфери з мілкими буферами на чипі та глибокими буферами на корпусі. Якщо ви керуєте та налаштовуєте робочі навантаження, пакети входять і виходять без проблем, і мережа матиме надзвичайно низьку затримку. Однак, якщо виникає перевантаження, або в комутаторі, або на віддаленому кінці, мілкі буфери відкинуть пакети, викликаючи повторну передачу та різке зростання затримки та часу завершення завдання."

Гіббс зазначив, що нові платформи використовують ту ж саму EOS, що й інші продукти компанії, але з розширенням для підтримки нових варіантів використання. Він сказав, що новий портфель R4 забезпечує значні переваги, включаючи нижчий час завершення завдання та нижче енергоспоживання на гігабіт на секунду, покращуючи ефективність на основі ват на гігабіт. Зростання ЦОД з AI привернуло пильну увагу до використання електроенергії, і нові системи від Arista є більш ефективними, одночасно впроваджуючи з’єднання на 3,2 Тбіт/с.

Модель 7280R4, яка має компактний фіксований формфактор, доповнює 7800R4. Обидві лінійки мають однакові можливості переадресації площини даних (data plane forwarding), що дозволяє клієнтам підбирати рішення відповідно до необхідної швидкості портів, щільності, простору та мережевих архітектур.

Ключові вдосконалення сімейства 7280R4 включають:

Система з 32 портами 800 GbE, ідеальна як магістральний маршрутизатор (spine) для AI/ЦОД.

Система з 64 портами 100 GbE з 10 портами 800 GbE, ідеальна як комутатор доступу (leaf) для AI/ЦОД.

Arista також представляє нові комутатори доступу 7020R4 Ethernet для високошвидкісного прямого підключення до сервера як комутатор доступу AI або ЦОД (AI or DC leaf). Комутатори розроблені для організацій зі складними робочими навантаженнями, гетерогенними середовищами та високопродуктивними робочими станціями.

Можливості сімейства 7020R4 включають 10GbE Ethernet з мідними або 25GbE SFP портами, а також висхідні канали 100 GbE з шифруванням TunnelSec на швидкості каналу на порт для кіберзахисту.

Модульні системи 7800R4, пара нових лінійних карт та дві нові платформи 7280R4 вже постачаються. Нові платформи 7020R4 Chassis та нова модель 7800R4 з HyperPort заплановані до постачання у першому кварталі наступного року.

Стратегія охолодження ЦОД для епохи AI

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT