Intel та Google поглиблюють співпрацю для розбудови інфраструктури AI

10 апрель, 2026 - 16:45

Корпорація Intel та компанія Google оголосили про розширення багаторічного партнерства, спрямованого на розвиток хмарної інфраструктури наступного покоління. Головний акцент зроблено на критичній ролі центральних процесорів (CPU) та кастомних блоків обробки інфраструктури (IPU) у масштабуванні сучасних гетерогенних AI-систем.

Хоча основна увага в індустрії часто прикута до графічних прискорювачів (GPU), розробники наголошують: AI-системи не можуть ефективно працювати без потужного «координатора».

Google Cloud продовжує розгортати процесори Intel Xeon 6 для своїх інстансів C4 та N4. Вони відповідають за оркестрацію, обробку даних та виконання завдань, чутливих до затримок.

Сучасний AI вимагає поєднання різних типів обчислень, де CPU відіграють ключову роль у керуванні складними робочими навантаженнями.

Паралельно Intel та Google розширюють спільну розробку кастомних IPU (Infrastructure Processing Units) на базі ASIC. Вони забирають на себе функції мережі, зберігання даних та безпеки, які раніше виконував центральний процесор.

Це звільняє ресурси CPU для безпосередніх обчислень, роблячи продуктивність у гіпермасштабованих середовищах більш передбачуваною.

Разом Xeon та IPU створюють збалансовану платформу, що дозволяє хмарним провайдерам зростати без надмірного ускладнення систем.

«Масштабування AI вимагає більше, ніж просто акселератори - воно вимагає збалансованих систем. Процесори та IPU є центральними елементами для забезпечення продуктивності та гнучкості, яких вимагають сучасні робочі навантаження AI», - зазначив Ліп-Бу Тан (Lip-Bu Tan), генеральний директор Intel.

«Intel залишається надійним партнером уже майже два десятиліття. Їхня дорожня карта Xeon дає нам впевненість у тому, що ми зможемо й надалі задовольняти вимоги до продуктивності нашої інфраструктури, що зростають», - підкреслив Амін Вахдат (Amin Vahdat), старший віцепрезидент Google з AI-інфраструктури.

Ця співпраця підкріплює прагнення обох гігантів до створення відкритої та масштабованої інфраструктури. Поєднуючи універсальні обчислення з вузькоспеціалізованим прискоренням, Intel та Google допомагають бізнесу та розробникам впроваджувати AI швидше та з меншими витратами.