Arm представила свій перший власний процесор

25 март, 2026 - 09:35

Arm представила свій перший власний процесор

Компанія Arm офіційно оголосила про розширення своєї платформи до випуску готових напівпровідникових виробів, що стало першим подібним випадком у тридцятирічній історії фірми. 

Як повідомляється, новим етапом розвитку став запуск Arm AGI CPU - спеціалізованого процесора для центрів обробки даних, орієнтованого на роботу з агентним штучним інтелектом. Це рішення знаменує перехід від ліцензування інтелектуальної власності IP та підсистем Arm Compute Subsystems до постачання кінцевого кремнію. Це, як зазначається, надає партнерам ширші можливості для швидкого розгортання інфраструктури AI.

Генеральний директор компанії Рене Хаас (Rene Haas) підкреслив, що агентні обчислення радикально змінюють спосіб побудови IT-систем. "Сьогоднішній день позначає наступну фазу розвитку нашої платформи та визначальний момент для компанії. Завдяки розширенню до постачання серійного кремнію з нашим Arm AGI CPU, ми надаємо партнерам більше вибору на фундаменті енергоефективних обчислень для підтримки інфраструктури AI у глобальному масштабі", - заявив Рене Хаас. Новий процесор розроблений для задоволення потреб систем, що вимагають не лише навчання моделей, а й постійної роботи автономних агентів, здатних планувати та діяти самостійно.

Технічні характеристики Arm AGI CPU - до 136 ядер Neoverse V3 на один процесор, що забезпечує високу пропускну здатність пам'яті та низьку затримку. Процесор споживає 300 ват енергії TDP, що дозволяє підтримувати детерміновану продуктивність під постійним навантаженням без зниження частот. За даними розробника, архітектура Arm забезпечує вдвічі вищу продуктивність на одну стійку порівняно з традиційними x86 платформами. Це дозволяє операторам центрів обробки  даних суттєво економити на капітальних витратах CAPEX при масштабуванні потужностей для обробки великих масивів даних.

Головним партнером та співавтором розробки виступила компанія Meta, яка планує використовувати Arm AGI CPU для оптимізації своєї інфраструктури застосунків та інтеграції з власними прискорювачами Meta Training and Inference Accelerator. Керівник відділу інфраструктури Meta Сантош Джанардхан (Santosh Janardhan) підкреслив, що співпраця з Arm дозволила створити платформу, яка значно підвищує щільність продуктивності центрів обробки  даних. Крім Meta, до екосистеми підтримки нового продукту вже приєдналися такі гіганти як OpenAI, SAP, SK Telecom та провідні постачальники хмарних послуг, серед яких AWS, Google та Microsoft.

Arm також заручилася підтримкою великих виробників обладнання OEM та ODM, включаючи Lenovo та Supermicro, для забезпечення доступності систем уже в другій половині року. Перехід до прямого випуску кремнію підтримують понад 50 провідних компаній галузі, включаючи NVIDIA, Samsung та TSMC. Така широка підтримка свідчить про готовність ринку до впровадження нових стандартів обчислень, де центральний процесор відіграє ключову роль у координації роботи прискорювачів та управлінні складними робочими навантаженнями AI.

Рішення Arm вийти за межі традиційного ліцензування IP та почати продаж власного кремнію є прямою загрозою для домінування Intel та AMD у сегменті центрів обробки  даних. Це стратегічний крок до вертикальної інтеграції, який дозволяє компанії не лише пропонувати архітектуру, а й безпосередньо контролювати якість та маржинальність кінцевого продукту. Вибір Meta як стратегічного партнера демонструє, що найбільші технологічні гравці прагнуть позбутися складності x86 на користь вузькоспеціалізованих енергоефективних рішень, адаптованих під конкретні алгоритми штучного інтелекту.

Поява терміну "агентний AI" як основного драйвера продажів CPU підкреслює зміну ролі центрального процесора в епоху домінування графічних прискорювачів. У той час як GPU відповідають за обчислювальну потужність, Arm AGI CPU бере на себе функції інтелектуального координатора, що забезпечує логіку, планування та рух даних. Це створює новий ринковий сегмент, де енергоефективність на рівні стійки стає головним конкурентним показником, оскільки фізичні обмеження систем живлення та охолодження центрів обробки даних стають основним бар'єром для подальшого зростання обчислювальних потужностей.