`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Чому актив Groq настільки важливий для Nvidia?

+22
голоса

Напередодні різдвяних свят, 24 грудня 2025 року, індустрія отримала несподіваний подарунок - угоду, яка може переформатувати весь сегмент AI-обчислень. Nvidia, безсумнівний лідер ринку штучного інтелекту, оголосила про угоду з Groq. І мова йде не про класичне поглинання, а про неексклюзивне ліцензування технології та перехід ключових співробітників (модель license + acqui-hire). 

Також слід відзначити, що сама Groq при цьому продовжить розвиток як незалежна компанія під керівництвом нового CEO, розвиваючи GroqCloud. Сума у 20 мільярдів доларів, яка зʼявилася у публічній площині фігурує лише як оцінка угоди, а не як офіційні дані щодо придбання всієї компанії. Як би там не було, це найбільший за резонансом крок Nvidia у «залізі для інференсу» і взагалі найбільша угода компанії - попередня відбулася у 2020 році з Mellanox Technologies за 6,9 млрд дол. Groq - це логічне продовження стратегії, за якої компанія Дженсена Хуана прагне контролювати весь стек AI від тренування до виконання.

З Google назовні: як народжувалася «анти-GPU» архітектура

Історія Groq починається у 2016 році, з ідеї групи колишніх інженерів Google на чолі з Джонатаном Россом - людиною, яка стояла біля витоків одного з найважливіших проектів головного пошуковика планети. Саме Росс був одним із творців Google Tensor Processing Unit (TPU), спеціалізованого чипа для AI-обчислень, який згодом фактично став альтернативою GPU від Nvidia для деяких компаній.

Цікаво, що Джонатан Росс розпочав розробки TPU як "20% проект" у Google - ініціативу, яку співробітники компанії можуть реалізовувати паралельно з основними обов'язками. Він розробив та впровадив ключові елементи першого покоління TPU. Після цього приєднався до команди Rapid Eval Team у Google X, де розробляв нові напрямки для материнської компанії Alphabet.

Маючи за плечима досвід створення одного з найважливіших AI-чипів і навчаючись у легендарного Янна ЛеКуна в Інституті Куранта Нью-Йоркського університету, Росс побачив те, чого не помічали інші. Індустрія зосередилася на тренуванні моделей штучного інтелекту, але прийшов час зробити ставку на інференс - процес виконання вже натренованих моделей для отримання результатів у реальному часі.

Разом із Джонатаном Россом серед співзасновників був Дуглас Вайтман, ще один колишній інженер з Google X, хоча він залишив Groq ще у 2019 році. У початковій заявці до SEC наприкінці 2016 року Groq зафіксувала фінансування у розмірі 10,3 мільйона доларів — скромний початок для компанії, яка менш ніж за десятиліття стане одним із найцінніших «інференс-активів» на ринку.

Побудувати актив, а не чип: фінансування, GroqCloud і масштаб

Groq методично нарощував потужності, залучаючи фінансування від провідних інвесторів Силіконової долини. Перший раунд Series A у грудні 2016 року очолив фонд Social Capital. Далі послідували інвестиції від Tiger Global Management, D1 Capital Partners, BlackRock та інших фінансових гігантів.

Важливою віхою став раунд Series C у квітні 2021 року на 300 мільйонів доларів, який вивів компанію в статус єдинорога з оцінкою понад 1 мільярд доларів. Але справжнє зростання почалося у 2024 році, коли AI-бум досяг апогею.

У серпні минулого року Groq ще залучила 640 мільйонів доларів у раунді Series D під керівництвом BlackRock Private Equity Partners, що підняло вартість компанії до 2,8 мільярда доларів. Серед інвесторів цього раунду були Neuberger Berman, Cisco Investments, Samsung Catalyst Fund, Type One Ventures та інші помітні технологічні гравці.

А вже у вересні 2025 року було проведено раунд на 750 млн доларів із оцінкою 6,9 млрд дол. У цьому раунді взяли участь BlackRock, Neuberger Berman, DTCP, D1 Capital Partners, Altimeter Capital, Samsung, Cisco та 1789 Capital.

Загалом за дев'ять років існування Groq залучив 1,75 мільярда доларів від 45 інвесторів. Така масштабна підтримка відображала впевненість ринку в унікальності технологічного підходу Groq - і, ширше, у тому, що “інференс” перетворюється з додатка до тренування на самостійний центр прибутку.

LPU як ставка на детермінізм: швидкість, стабільність і «хвіст» латентності

Важіль конкурентної переваги Groq - це Language Processing Unit (LPU), спеціалізований процесор, який компанія спочатку називала Tensor Streaming Processor (TSP). Це не просто ще один AI-чип, а фундаментально інший підхід до обробки послідовних обчислень.

Ключова особливість LPU - програмована архітектура конвеєра. На відміну від GPU, які оптимізовані для паралельної обробки та були спочатку розроблені для графіки, LPU створений з нуля для лінійної алгебри - основної вимоги для AI-інференсу.

Чип має "конвеєрні стрічки" для даних, які переміщують інструкції та дані між SIMD (Single Instruction Multiple Data) функціональними блоками. На кожному етапі конвеєра функціональний блок отримує інструкції через "стрічку", які повідомляють, звідки брати вхідні дані, яку функцію виконувати і куди розміщувати вихідні дані. Весь процес контролюється програмно - синхронізація всередині апаратного забезпечення не потрібна.

Традиційні процесори, включаючи CPU та GPU, мають численні джерела недетермінізму: ієрархію пам'яті, переривання, контекстне перемикання, динамічне планування інструкцій. LPU усуває всі ці фактори, дозволяючи компілятору статично планувати виконання кожної інструкції разом із потоком даних через мережу чипів.

Groq реалізувала принцип "програмне забезпечення на першому місці" - спочатку була розроблена архітектура компілятора, і тільки після цього команда перейшла до проектування чіпа. Це дозволило максимізувати контроль розробника над апаратним забезпеченням і спростити роботу програмістів.

Додатковий важливий сенс детермінізму - не “красивий термін”, а контроль tail-latency (затримок у «хвості» розподілу) та джитеру. Для агентів, голосових інтерфейсів, інтерактивної аналітики й будь-яких “реальних” застосунків критична не лише середня швидкість, а передбачуваність: відповідь має приходити стабільно швидко, а не «інколи блискавично, інколи з провалом». Саме це робить інференс-архітектури з жорстким плануванням і статичним виконанням особливо привабливими.

Одна з найбільш радикальних інновацій Groq - використання сотень мегабайт вбудованої SRAM як основного сховища ваг моделі, а не як кешу. Традиційні акселератори використовують DRAM та HBM як первинне сховище зі складними системами кешування. Кожен доступ до ваг через DRAM або HBM додає сотні наносекунд затримки.

Це працює для пакетного (high-batch) тренування, де часова локальність передбачувана, а арифметична інтенсивність висока. Але для інференсу, де йде послідовне виконання шарів з набагато нижчою арифметичною інтенсивністю, така затримка критична. SRAM-центрична архітектура LPU забезпечує значно нижчу затримку доступу, дозволяючи обчислювальним блокам отримувати ваги на повній швидкості.

Groq реалізувала тензорний паралелізм - розподіл окремих операцій між процесорами для зменшення затримки на одиничний запит. Замість обробки більшої кількості запитів паралельно, архітектура LPU розподіляє кожен шар між кількома LPU, щоб окремі прямі проходи завершувалися швидше. Це критично для застосувань реального часу.

Саме завдяки цьому Moonshot AI Kimi K2 з трильйоном параметрів генерує токени в реальному часі на інфраструктурі Groq. Компанія досягла показника понад 100 токенів на секунду на моделі Meta Llama2-70B, ставши першим API-провайдером, який подолав цей бар'єр.

Важливе уточнення: “tokens/s” - показник, який легко перетворити на маркетинговий. Тому для ринку дедалі важливішими стають незалежні бенчмарки, де вимірюють не лише throughput, а й “time-to-first-token”, стабільність та поведінку під навантаженням. Саме в цьому контексті Groq вибудовувала наратив «реального часу» - не як рекорд, а як відтворювану характеристику сервісу.

LPU можна масштабувати від окремих чипів до розподілених систем завдяки детерміністичній мережевій архітектурі. Вісім TSP-пристроїв об'єднуються в один вузол, де кожен пристрій має 11 портів - 7 для з'єднання з іншими пристроями у вузлі, 4 для глобальних зв'язків. Разом 32 глобальні порти формують 32-портовий високопродуктивний маршрутизатор.

Компілятор керує переміщенням даних, усуваючи недетермінізм, який зазвичай привносять маршрутизація та планування в традиційних мережевих системах.

Перші роки Groq працювала у режимі "стелс", розробляючи технологію та будуючи команду. У березні 2022 року компанія придбала Maxeler Technologies, відому своїми технологіями dataflow-систем, що посилило експертизу у високопродуктивних обчисленнях.

У серпні 2023 року Groq обрала новий завод Samsung Electronics у Тейлорі (шт. Техас) для виробництва чипів наступного покоління з використанням техпроцесу 4 нм. Це було перше замовлення на новому підприємстві корейського виробника, що підкреслювало довіру до технології Groq.

Вже у лютому наступного року компанія зробила ще один критичний крок - запустила GroqCloud, хмарну платформу для розробників. Це дозволило програмістам отримати доступ до LPU через API та орендувати обчислювальні потужності. У березні 2024 року компанія придбала Definitive Intelligence, стартап з бізнес-орієнтованими AI-рішеннями, для посилення хмарної платформи. Президентом GroqCloud став Санні Мадра, підприємець з досвідом масштабування стартапів і M&A-угод: Autonomic (придбана Ford) та Xtreme Labs (Pivotal).

Протягом 2025 року Groq перетворилася на "королеву інференсу", підписуючи масштабні контракти з підприємствами для розгортання AI-агентів у реальному часі. У лютому цього року компанія отримала зобов'язання на 1,5 мільярда доларів від Саудівської Аравії для розширення LPU-інфраструктури, пов'язаної з новим дата-центром GroqCloud у Даммамі. Також було укладено угоду з Bell Canada для розширення її національної AI-інфраструктури.

На початок грудня 2025 року Groq вже керувала дюжиною дата-центрів у США, Канаді, на Близькому Сході та в Європі. Платформа обслуговувала понад 2 мільйони розробників. Компанія орієнтувалася на виручку в 500 мільйонів доларів за підсумками цього року.

Саме у 2024–2025 рр стався «зсув попиту» - від демонстрацій LLM до індустріального розгортання агентів, RAG-сервісів, підтримки клієнтів у реальному часі, голосових помічників і внутрішньокорпоративних Copilot-подібних систем. І якщо тренування вимірюється тижнями/місяцями й бюджетується “проєктно”, то інференс - це щоденна операційна стаття витрат. Цим пояснюється, чому інференс-оптимізація стала “срібною кулею” для CFO так само, як для CTO.

Контроль над ціною токена: що Nvidia забирає з цієї історії

У середу 24 грудня 2025 року, коли більшість Силіконової долини готувалася до свят, CNBC першими повідомили про найбільший крок Nvidia в історії навколо Groq. Канал процитував слова Алекса Девіса, CEO Disruptive (провідного інвестора останнього раунду Groq) - Nvidia погодилася на масштабну операцію у 20 мільярдів доларів.

Стало відомо, що ключові керівники Groq переходять до Nvidia. Засновник і CEO Джонатан Росс, президент Санні Мадра та інші члени інженерної команди приєднаються до технологічного гіганта, щоб інтегрувати та масштабувати ліцензовану технологію. У внутрішньому листі до співробітників, який отримали у CNBC, CEO Nvidia Дженсен Хуан написав: "Ми плануємо інтегрувати низьколатентні процесори Groq в архітектуру NVIDIA AI factory, розширюючи платформу для обслуговування ще ширшого спектру AI-інференсу та робочих навантажень реального часу".

Ринок AI-обчислень розділяється на два критичних сегменти: тренування та інференс. Nvidia довгий час домінувала в тренуванні з GPU, але інференс - де заздалегідь натреновані моделі розгортаються для застосувань реального часу - швидко зростає. За прогнозами аналітиків, інференс становитиме дві третини AI-обчислень до кінця 2026 року проти однієї третини у 2023-му.

Groq з його LPU-технологією пропонував детерміністичний, програмно-орієнтований підхід, який усуває вузькі місця затримки, властиві апаратному забезпеченню на основі графічних прискорювачів. Партнерство/ліцензування з Groq знімає для Nvidia одну з ключових стратегічних “дір” - інференс у реальному часі як окрема категорія, де конкурент може виграти не FLOPS-ами, а SLA (Service Level Agreement).

Домінування Nvidia в апаратному забезпеченні для АІ базується на екосистемі CUDA - програмній платформі з мережею у понад 4 млн розробників та 3000 оптимізованих застосунків. Ця екосистема створює серйозний бар'єр для конкурентів, оскільки розробники та підприємства фіксуються на платформі з безшовною інтеграцією, розширеними бібліотеками та надійною підтримкою спільноти.

Інтегруючи LPU від Groq у свою екосистему, Nvidia може запропонувати рішення з подвійним стеком: високопродуктивні GPU для тренування та LPU для інференсу. Це посилює позицію Nvidia як постачальника комплексної AI-інфраструктури від кінця до кінця.

Додатковий висновок: “подвійний стек” - це не про заміну GPU, а про сегментацію виробництва токенів. Nvidia фактично каже ринку: «ми хочемо контролювати і “фабрику навчання”, і “фабрику виконання” - щоб клієнт не шукав другий двигун на стороні».

До грудня 2025 року ширилися чутки, що Amazon та Google також вели переговори про партнерство/придбання Groq для посилення власних зусиль у розробці кремнію. Але Дженсен Хуан вирішив діяти рішуче, зробивши "превентивний удар" з пропозицією, від якої рада директорів Groq не змогла відмовитися.

Окрема логіка цієї угоди - “закрити вікно”, в якому Groq міг стати інференс-активом будь-якого з гіперскейлерів. Для Nvidia це питання не лише швидкості, а й архітектури ринку: інференс-ASIC у руках AWS/Google - це потенційне “відрізання” частини попиту від GPU.

Угода навколо Groq - це більше ніж просто фінансова транзакція. Це декларація намірів від Nvidia заволодіти "шаром виконання" AI-економіки так само твердо, як компанія володіє "шаром створення".

Тут важливо розставити акценти: минулі два роки ринок змагався за “HBM, NVLink і тренування”. У 2025–2026 він починає змагатися за “вартість токена, tail-latency і масштабованість сервісу”. Це інша математика і інша продуктова стратегія.

Ринок після Groq: хто втрачає “вікно” і що буде з конкуренцією

Інші стартапи з AI-чипами, такі як Cerebras Systems та SambaNova, які залишаються незалежними, можуть стати об'єктами придбання для Microsoft, Meta або Amazon, оскільки вони намагаються не відставати від апаратно-програмної вертикальної інтеграції Nvidia. Ринок більше не тільки про те, у кого найбільше пам'яті HBM4, а про те, хто може оркеструвати весь потік даних від моменту запитання користувача до мілісекунди відповіді AI.

Intel та Google виступають як серйозні конкуренти у сфері AI-чипів. Перша має стратегію енергоефективних рішень, зокрема Crescent Island GPU для дата-центрів та Xeon 6+ процесори. Договір Intel з Nvidia на 5 мільярдів доларів у вересні 2025 року підкреслює амбіції зменшити залежність від конкуруючих чипів, але екосистема Intel залишається фрагментованою порівняно з Nvidia.

З іншого боку Google зі своїми TPU може захопити 25% ринку AI-чипів до 2030 року за прогнозами аналітиків, але це зростання залежить від ширшого впровадження за межами його хмарної платформи. Навпаки, угода з Groq надає Nvidia негайний доступ до спеціалізованого інференс-підходу з крос-індустріальною привабливістю.

Битва “GPU vs TPU” поступово доповнюється третім фронтом - інференс-ASIC/інференс-dataflow. І саме на цьому напрямку конкуренція часто виглядає не як «хто швидший у піку», а як «хто дешевше забезпечує SLA в реальному часі».

Попри те, що Федеральна торгова комісія США демонструє більш поблажливу позицію щодо внутрішніх злиттів, які посилюють американське технологічне лідерство проти Китаю, угода все ще піддаватиметься інтенсивному контролю як потенційне "вбивче придбання". Регулятори в Європейському Союзі та Державна адміністрація Китаю з ринкового регулювання, ймовірно, будуть набагато більш ворожими, потенційно вимагаючи, щоб Nvidia зберегла технологію Groq відкритою для конкурентів, інакше будуть застосовані суворі заходи.

Саме тому формат “ліцензія + перехід людей” виглядає для ринку як обхід найбільш токсичної частини антимонопольного ризику: з юридичної точки зору це не обов’язково “концентрація”, але з практичної - може дати Nvidia контроль над ключовими компетенціями.

Премія в оцінці для Groq - з 6,9 до 20 мільярдів доларів - це майже потроєння, що вимагає майже досконалої операційної асиміляції та швидкого захоплення ринку. Поточна оцінка Nvidia побудована на основі надзвичайної генерації готівки - виручка у ІІІ кв. 2025 року становила 57 мільярдів доларів. Ця масштабність забезпечує достатній капітал для стратегічних ходів, але також підвищує планку для повернення інвестицій.

Оскільки мова йде про публічно описану структуру “license + acqui-hire”, реальна економіка угоди для Nvidia може бути більш багатошаровою, ніж простий чек на 20 млрд. Але ринкова логіка не змінюється: Nvidia платить (грошима, умовами, пакетами, ліцензіями) за час - щоб не чекати, доки інференс-нішевий конкурент виросте у платформний ризик.

Основний каталізатор для підвищення оцінки - успішна інтеграція технології Groq у програмний стек Nvidia. Якщо LPU безшовно інтегруються з CUDA та забезпечать обіцяне зниження латентності в реальних робочих навантаженнях, Nvidia може консолідувати свою позицію на швидкозростаючому ринку інференсу.

Однак існують ризики виконання. Інтеграція архітектури чіпів, яка фундаментально відрізняється від GPU, у існуючий стек - це нетривіальне завдання. Команда Groq повинна буде працювати в набагато більшій організаційній структурі, зберігаючи культуру інновацій стартапу. Також існує ризик втрати ключового таланту, якщо інтеграція буде занадто повільною або бюрократичною.

Історія Groq демонструє кілька важливих висновків для технологічної екосистеми. По-перше, спеціалізація може перемогти універсальність. Groq не намагалася конкурувати з Nvidia у тренуванні моделей компанія зосередилася на одному сегменті, інференсі, і стала в ньому найкращою.

По-друге, принцип "програмне забезпечення на першому місці" дозволяє створити більш ефективну архітектуру. Замість того, щоб адаптувати програмне забезпечення до існуючого апаратного забезпечення, Groq спочатку розробив компілятор, а потім побудував чип навколо нього.
 
По-третє, детермінізм і передбачуваність можуть бути конкурентною перевагою в епоху, коли латентність критична для користувацького досвіду. Усунувши джерела недетермінізму, Groq зміг гарантувати передбачувану продуктивність у масштабі.

Нарешті, правильний момент виходу на ринок може бути вирішальним. Groq запустив GroqCloud саме тоді, коли індустрія переходила від фази "побудови" (тренування моделей) до фази "використання" (розгортання інференсу). Це дозволило компанії захопити значну частку ринку на ранньому етапі його формування.

Угода Nvidia–Groq стала найбільшою подією року у світі AI-апаратного забезпечення й сигналізує про новий етап консолідації індустрії. Отримавши одну з найшвидших технологій інференсу напередодні 2026 року, Nvidia декларує свій намір володіти повним стеком AI-обчислень - від тренування до виконання.

Питання тепер у тому, чи зможе Nvidia “вшити” Groq-підхід у свій стек так, щоб він не перетворився на ще один внутрішній експеримент, а став другим режимом виробництва токенів - із низькою латентністю, передбачуваністю та масштабом. Саме відповідь на це питання й визначить, чи стане грудень 2025-го точкою консолідації, яка підсилить інновації, або моментом, після якого конкуренції в інференсі стане суттєво менше.

Стратегія охолодження ЦОД для епохи AI

+22
голоса

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT