| +22 голоса |
|

Корпорація Microsoft офіційно представила Maia 200, свій новітній прискорювач для штучного інтелекту.
Повідомляється, що чип, виготовлений за передовим 3-нанометровим техпроцесом TSMC, містить понад 140 мільярдів транзисторів і спроєктований спеціально для радикального покращення економіки генерації токенів у великих мовних моделях.
За заявою компанії, Maia 200 став найпродуктивнішим рішенням серед усіх гіперскейлерів: він утричі випереджає третє покоління Amazon Trainium за продуктивністю у форматі FP4 та демонструє такі показники FP8, які перевищують можливості Google TPU сьомого покоління.
Архітектура Maia 200 розроблена для подолання «вузьких місць» сучасних обчислень. Прискорювач оснащений перепроектованою підсистемою пам'яті, що включає 216 ГБ HBM3e із пропускною здатністю 7 ТБ/с та 272 МБ вбудованої пам'яті SRAM прямо на кристалі. Це дозволяє досягати потужності понад 10 петафлопс у 4-бітовій точності (FP4) та понад 5 петафлопс у 8-бітовій (FP8) при тепловому пакеті 750 Вт. Нові прискорювачі вже інтегровані в інфраструктуру Azure і розгорнуті в дата-центрах регіону US Central (Айова), де вони обслуговують найновіші моделі GPT-5.2 від OpenAI та сервіси Microsoft 365 Copilot. Крім того, команда Microsoft Superintelligence під керівництвом Сатьї Наделли (Satya Nadella) використовує ці чипи для масової генерації синтетичних даних та навчання з підкріпленням.
Окрему увагу приділено інтеграції: Microsoft впровадила інноваційну двоярусну мережеву архітектуру на базі стандартного Ethernet. Власний транспортний протокол (Maia AI transport protocol) та інтегровані мережеві контролери (NIC) дозволяють об'єднувати до 6144 прискорювачів у єдиний кластер без використання дорогої пропрієтарної комутації. Кожен прискорювач забезпечує 2,8 ТБ/с виділеної смуги пропускання, що мінімізує затримки при роботі з гігантськими моделями. Такий «хмарно-орієнтований» підхід дозволив скоротити час від першого зразка кремнію до розгортання в дата-центрі вдвічі порівняно з попередніми програмами.
Аналіз цієї події підтверджує, що Microsoft остаточно переходить до моделі вертикальної інтеграції, намагаючись знизити критичну залежність від поставок Nvidia. Хоча корпорація продовжує залишатися найбільшим клієнтом Дженсена Хуанга (Jensen Huang), власне кремнієве виробництво дозволяє Microsoft покращити показник продуктивності на кожен інвестований долар на 30% порівняно з існуючим апаратним флотом. У 2026 році, коли дефіцит обчислювальних ресурсів став головним фактором стримування розвитку штучного інтелекту, наявність власного чіпа, ідеально оптимізованого під алгоритми OpenAI, дає Microsoft стратегічну перевагу у швидкості виведення продуктів на ринок.
Maia 200 - це частина комплексної екосистеми, що включає рідинне охолодження другого покоління. Microsoft фактично будує «закритий сад» АІ-обчислень, де програмний стек (Maia SDK з інтеграцією PyTorch та компілятором Triton) та апаратне забезпечення працюють як єдине ціле. Це єдиний шлях для підтримки високої маржинальності хмарних сервісів в умовах, коли вартість експлуатації АІ-агентів постійно зростає. Випуск Maia 200 сигналізує ринку: епоха домінування сторонніх чипмейкерів у хмарах добігає кінця, а лідерство тепер визначається здатністю створювати власне спеціалізоване «залізо».
Стратегія охолодження ЦОД для епохи AI
| +22 голоса |
|

