Згідно з нещодавно опублікованим звітом Dell'Oro Group дохід від графічних процесорів і кастомних прискорювачів, збільшився на 130% у третьому кварталі 2024 року. Американські гіперскейлери - Amazon, Google, Meta та Microsoft - планували розгорнути у 2024 році понад 5 мільйонів прискорювачів, здатних навчати AI.
«Попит на прискорювачі зростає шаленими темпами, оскільки гіганти намагаються розгорнути інфраструктуру для навчання та виведення великих мовних моделей, - заявив Барон Фунг (Baron Fung), старший директор з досліджень Dell'Oro Group. - На додаток до комерційно доступних графічних процесорів, американські гіперскейлери також збільшують розгортання інфраструктури АІ за допомогою кастомних прискорювачів. Оскільки великі мовні моделі продовжують збільшуватися в розмірах, що зумовлює потребу в більших обчислювальних кластерах, впровадження кастомних прискорювачів прискорюються. Ці кастомні рішення, які часто розробляються спільно з такими виробниками чипів, як Broadcom і Marvell, спрямовані на підвищення продуктивності, зниження витрат і зменшення залежності від графічних процесорів NVIDIA».
Прогнозується, що ринок компонентів для серверів і систем зберігання даних зросте більш ніж на 100% у 2024 році. Прискорювачі, а потім пам'ять і накопичувачі забезпечили прискорене зростання.
NVIDIA домінувала в доходах від компонентів, випередивши всіх постачальників, а Samsung і SK Hynix відстали.
Компанія NVIDIA отримала майже половину загального доходу, в той час як гіперскейлери, що розгортають кастомні рішення, швидко набирають обертів.
Доходи від інтелектуальних мережевих адаптерів і DPU майже подвоїлися в третьому кварталі 2024 року завдяки активному розгортанню мережевих адаптерів у кластерах штучного інтелекту.
Очікується, що в 2025 році зростання сповільниться, але все ще буде виражатися двозначними цифрами, при цьому на початку року можливе уповільнення темпів постачання зростання серверних компонентів загального призначення через коригування запасів.
Стратегія охолодження ЦОД для епохи AI