`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Тимур Ягофаров

matX кидає виклик Nvidia

+22
голоса

Залучення інвестицій у розмірі 500 мільйонів доларів стартапом matX стало доволі гучною подією. Цей раунд фінансування не просто підкреслює високий інтерес до альтернатив панівним рішенням від Nvidia, а й виводить на передній план нову філософію проєктування чипів - рішень, орієнтованих виключно на потреби великих мовних моделей.

Основою амбіцій matX є професійний бекграунд його засновників — Райнера Поупа (Reiner Pope) та Майка Гантера (Mike Gunter). Обидва тривалий час працювали у Google над розробкою тензорних процесорів (TPU), які сьогодні вважаються чи не єдиною реальною альтернативою графічним процесорам (GPU) у хмарних обчисленнях. Райнер Поуп відомий як один із провідних розробників програмного забезпечення для моделі PaLM, а Майк Гантер керував проєктуванням кількох поколінь TPU. Цей тандем дозволив стартапу з перших днів сфокусуватися на подоланні головної слабкості універсальних GPU - надмірної складності архітектури, яка не завжди ефективно використовується при роботі з алгоритмами Transformer.

Підхід matX кардинально відрізняється від стратегії Nvidia.Якщо чипи Blackwell або майбутні покоління GPU залишаються універсальними інструментами для графіки, симуляцій та АІ, архітектура matX розроблена за принципом «одне велике обчислювальне ядро». Замість того щоб координувати роботу тисяч дрібних ядер, процесор matX використовує масивні матричні блоки, оптимізовані під операції множення матриць, які складають понад 90% обчислювального навантаження при інференсі та навчанні АІ. Такий підхід дозволяє радикально знизити витрати на передачу даних між компонентами чипа та зменшити енергоспоживання. Компанія стверджує, що видалення зайвих блоків, призначених для обробки графіки та застарілих інструкцій, звільнило величезну площу кристала для обчислювальних елементів та кеш-пам’яті.

Також варто відзначити, що matX фокусується на розв'язанні проблеми «стіни пам'яті». У сучасних AI-задачах швидкість обчислень часто обмежена не потужністю процесора, а швидкістю доступу до даних. Чип від matX інтегрує інноваційну систему керування пам’яттю, яка дозволяє обробляти гігантські обсяги параметрів моделей з мінімальними затримками. Це досягається завдяки використанню надширокої шини даних та оптимізованого розміщення блоків пам'яті HBM (High Bandwidth Memory) безпосередньо поруч із логічними елементами. Таке компонування дозволяє процесору працювати як єдиний монолітний механізм, де кожен транзистор, пущений в дію у математичних операціях, специфічних для архітектури трансформерів. Крім того, інженери відмовилися від традиційної ієрархії кешу, замінивши її більш гнучкою структурою, яка динамічно адаптується під потреби конкретної нейромережі. Це дозволяє уникнути простоїв обчислювальних блоків, які в традиційних GPU часто чекають на підвантаження даних з віддалених зон пам'яті.

Економічна ефективність нової розробки базується на щільності обчислень. За словами розробників, їхній чип здатний забезпечити у кілька разів вищу продуктивність на кожен квадратний міліметр кремнію порівняно з флагманськими рішеннями конкурентів. Це критично важливо в умовах глобального дефіциту виробничих потужностей на заводах TSMC, оскільки дозволяє отримувати більше обчислювальної потужності з тієї ж кількості пластин.

Окрім апаратної частини, matX активно розвиває власний програмний стек, намагаючись зробити перехід з екосистеми CUDA максимально безболісним для розробників. Компанія створює компілятор, який автоматично оптимізує код PyTorch або JAX під їхню специфічну архітектуру. Це дозволяє розробникам запускати наявні моделі без необхідності переписувати їх на низькому рівні, що традиційно є найскладнішим бар'єром для будь-якого новачка у цій індустрії.

Сума у пів мільярда доларів дозволить стартапу перейти від стадії прототипів до масового виробництва та розгортання власних хмарних потужностей. Ринок AI-чипів сьогодні перебуває у фазі трансформації: клієнти рівня Microsoft, Meta та OpenAI дедалі частіше шукають спеціалізовані рішення, які дозволять знизити вартість експлуатації нейромереж. Якщо matX вдасться підтвердити заявлені характеристики в реальних умовах дата-центрів, це може суттєво похитнути монополію Nvidia, змусивши індустрію рухатися в бік вузькоспеціалізованих архітектур, де кожен елемент працює виключно на швидкість генерації тексту, зображень чи коду. Такий підхід обіцяє не просто кількісне покращення швидкості, а якісний стрибок у доступності AI-технологій для бізнесу будь-якого масштабу.

Стратегія охолодження ЦОД для епохи AI

+22
голоса

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT