`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Найбільші хмарні оператори активно будують сервери під АІ, що збільше потреби на HBM

0 
 

TrendForce повідомляє, що вибухове зростання додатків генеративного АІ, таких як чат-боти, призведе до значного розширення розробки серверів у 2023 році.

Найбільші CSP, включаючи Microsoft, Google, AWS, а також китайські гравці, такі як Baidu і ByteDance, інвестували значні кошти у високорівневі AI-сервери. Це не тільки підвищить попит на HBM у 2023-2024 роках, але й, як очікується, сприятиме зростанню потужностей передових компонент на 30-40%.

TrendForce підкреслює, що для підвищення обчислювальної ефективності AI-серверів і збільшення пропускної здатності пам'яті провідні виробники чипів, такі як Nvidia, AMD та Intel, вирішили впровадити HBM. На сьогодні Nvidia A100 і H100 можуть похвалитися до 80 ГБ HBM2e і HBM3 кожен. У своєму останньому інтегрованому чипі, Grace Hopper Superchip, Nvidia збільшила місткість HBM на 20%, досягнувши позначки в 96 ГБ. AMD MI300 також використовує HBM3, при цьому місткість MI300A залишилася на рівні 128 ГБ, як і у попередника, тоді як у MI300X вона збільшиться до 192 ГБ. Очікується, що наприкінці 2023 року Google розширить своє партнерство з Broadcom для виробництва AI-прискорювача TPU, який також включатиме пам'ять HBM.

За прогнозами TrendForce, у 2023 році чипи прискорювачів АІ, які переважно використовують HBM (включаючи H100 і A100 від Nvidia, MI200 і MI300 від AMD та TPU від Google), матимуть загальну місткість HBM 290 мільйонів ГБ - це майже 60% зростання. Прогнозується, що цей імпульс збережеться на рівні 30% або більше у 2024 році.

Крім того, зростає попит на передові технології пакування у сферах АІ та високопродуктивних обчислень, а технологія TSMC Chip on Wafer on Substrate (CoWoS) є переважним вибором для серверних мікросхем. Технологія упакування CoWoS складається з двох етапів: CoW та oS. На етапі CoW об'єднуються різні логічні мікросхеми (CPU, GPU та ASIC) й пам'ять HBM; на етапі oS використовуються припої для з'єднання CoW-збірки і прикріплення її на підкладку. Згодом вона інтегрується в PCBA, утворюючи основний обчислювальний блок материнської плати сервера, створюючи таким чином комплексну серверну систему АІ з іншими компонентами, такими як мережі, сховища, блоки живлення та інші пристрої вводу-виводу.

TrendForce зазначає, що завдяки високому попиту на висококласні мікросхеми АІ та HBM, щомісячні потужності TSMC для CoWoS, за прогнозами, досягнуть 12 тис. до кінця 2023 р. Попит на CoWoS зріс майже на 50% з початку цього року, що зумовлено потребами серверів Nvidia A100 і H100 та пов'язаних з ними рішень. У другому півріччі 2023 року потужності CoWoS, ймовірно, будуть напружені, оскільки попит на висококласні чіпи АІ з боку AMD, Google та інших компаній зростає. Очікується, що цей високий попит збережеться й у 2024 році, при цьому прогнозується зростання потужностей з розгорнутого упакування на 30~40%, враховуючи готовність відповідного обладнання.

TrendForce вважає, що якщо високий попит на АІ збережеться, цілком ймовірно, що Nvidia може дослідити інші передові альтернативи пакування для процесу CoWoS - наприклад, ті, що надаються Amkor або Samsung, - щоб розв'язувати проблему потенційного дефіциту постачання.

Новостворені Сили Безпілотних Систем потребують 140 ноутбуків, триває збір

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT