`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

У Кореї створили перший у світі чип для AI, що працює на надвисоких швидкостях з мінімальним енергоспоживанням

0 
 

У KAIST розроблено надефективний напівпровідник для AI, що нагадує людський мозок

Дослідники з Південної Кореї розробили перший у світі напівпровідник для AI, що працює на надвисоких швидкостях з мінімальним енергоспоживанням для обробки великих мовних моделей (LLM), заснованих на принципах, що імітують структуру і функції людського мозку. Рішення успішно виконує GPT 2, споживаючи всього 1/625 від споживаної потужності та маючи розмір в 1/41 від розміру графічного процесора Nvidia A100.

Дослідницька група з Корейського передового інституту науки та технологій (KAIST) PIM Semiconductor Research Center і Graduate School of AI Semiconductor під керівництвом професора Ю Хой-Чжуна розробила цей напівпровідник з ультранизьким енергоспоживанням "комплементарний трансформатор", використовуючи 28 нм техпроцес Samsung Electronics, про що Міністерство науки та ІКТ оголосило 6 лютого.

Традиційно для роботи GPT 2 було потрібно кілька графічних процесорів, а споживана потужність становила 250 Вт. Однак дослідницькій групі вдалося опрацювати GPT 2 лише за 0,4 секунди за допомогою одного AI-чіпа розміром 4,5x4,5 мм, споживаючи лише 400 міліватів. Результати цього дослідження було презентовано і продемонстровано на Міжнародній конференції з твердотілих схем (ISSCC), що проходила в Сан-Франциско з 19 по 23 лютого.

Комплементарний трансформатор - це технологія, що дає змогу вибірково використовувати "пікові нейронні мережі" (SNNs), які імітують спосіб опрацювання інформації нейронами в мозку, і "глибокі нейронні мережі" (DNNs), моделі AI, здатні розпізнавати складні патерни та навчатися за допомогою декількох шарів нейронних мереж. Технологія емулює принцип роботи людського мозку, за якого споживання енергії змінюється залежно від когнітивного навантаження. Технологія мінімізує енергоспоживання шляхом використання DNN для великих вхідних значень і SNN для менших.

Професор Ю Хой-Чжун з KAIST заявив: "Нейроморфні обчислення, що імітують функції мозку, - це технологія, яку такі великі компанії, як IBM і Intel, не реалізували повною мірою. Ми пишаємося тим, що першими у світі запустили LLM із суперефективним нейроморфним прискорювачем (комплементарним трансформатором)".

Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT