Ми всі звикли до того, що AI розвивається зі швидкістю світла. Але виявляється, що навіть найамбітніші плани розбиваються об сувору реальність - брак розеток та елементарних трансформаторів. Нові дані показують, що американський AI-бум серйозно "пригальмував".
Згідно з прогнозами аналітиків Sightline Climate, від 30% до 50% усіх дата-центрів, запланованих до запуску в США у 2026 році, будуть або відкладені, або скасовані.
Цікаво, що з запланованої потужності 16 ГВт, реально будується лише 5 ГВт. А ще 16 ГВт існують лише у форматі анонсів без реального прогресу. Якщо взяти до уваги, що час будівництва зазвичай займає 12-18 місяців, тож якщо об'єкт не почали будувати сьогодні, у 2026-му він не запрацює.
Чому ж так сталося? Проблема не в софті чи відсутності грошей, а у фізичних обмеженнях.
Енергомережі США просто не розраховані на такі апетити. Мешканці районів, де планують будувати дата-центри, починають бити на сполох, тому що через AI-гігантів ростуть рахунки за електрику для звичайних людей. Дослідження Pew Research підтверджує, що американці сподіваються на нові робочі місця, але дуже бояться екологічної катастрофи.
AI "з'їдає" всі потужності з виробництва пам'яті, накопичувачів та процесорів, через що ціни на ПК та ігрові консолі летять угору. Але Bloomberg нагадує про ще більшу біду: у США критично бракує акумуляторів та трансформаторів.
Попри всі спроби адміністрації Трампа повернути виробництво в США через високі мита на китайські товари, внутрішніх потужностей катастрофічно не вистачає. Як результат - американські AI-компанії продовжують потайки сподіватися на китайські компоненти, щоб хоч якось закрити дірки в постачаннях.
AI-перегони тривають, але тепер це не тільки змагання алгоритмів, а й битва за кожну гігават-годину та кожну котушку мідного дроту. Поки що інфраструктура явно програє коду.
Якщо ви думали, що штучний інтелект лише допомагає писати листи чи генерувати картинки, є новина - він щойно «переламав через коліно» довгострокові фінансові прогнози для ринку зберігання даних.
Джейсон Адер (Jason Ader), аналітик з William Blair, опублікував звіт, який змусив інвесторів понервувати. Виявляється, старі метрики оцінки компаній більше не працюють. AI настільки швидко змінює правила гри, що будувати плани на 5-10 років - це як гадати на кавовій гущі. Тепер фокус змістився на те, чи зможе компанія вижити та вирости у найближчі 12 місяців.
Замість того щоб дивитися на старі звіти, аналітики запровадили 4 критичні критерії:
- Здатність до реалізації (Execution) - те наскільки чітко менеджмент виконує обіцянки.
- AI-стійкість (AI Defensibility) - чи не з’їсть ваш бізнес якийсь новий алгоритм завтра.
- Модель ціноутворення, де перевага надається моделі «плати за спожите» (consumption-based), а не за кількість робочих місць (seat-based).
- Органічне прискорення - це наскільки ймовірно, що доходи зростуть самі по собі завдяки ринковим трендам.
Адер переглянув рейтинги 12 основних постачальників ПЗ для зберігання даних. Ось як виглядає цей «хіт-парад» (кожна компанія отримала оцінку від 1 до 5 за кожним пунктом):
Фаворити (Outperform)
Everpure. Справжній лідер. Найвищий бал за реалізацію, солідний «захисний рів» проти конкурентів та модель ціноутворення, яка заточена під AI-інфраструктуру.
Rubrik. Найкраща у своєму класі реалізація. AI тут сприймається як потужний попутний вітер для бізнесу.
Snowflake. Потужна екосистема, модель оплати за споживання та ефект «гравітації даних» (чим більше даних у хмарі, тим важче звідти піти).
Середнячки (Market Perform)
MongoDB. Стабільна робота та орієнтація на розробників тримають компанію на плаву.
NetApp. Хороша модель оплати за місткість, але «кульгає» здатність швидко захоплювати частку ринку порівняно з молодими агресивними гравцями (як Everpure).
Box. Має непогані шанси завдяки інтеграції AI в робочі процеси з контентом.
Commvault. Менеджмент зробив крутий поворот за останні 5 років, але останні квартали не виправдали очікувань інвесторів.
Nutanix. Продукт хороший, але швидкого зростання в найближчій перспективі не передбачається.
Varonis. AI для них - релевантна тема, але перехід на SaaS-модель та жорстка конкуренція створюють перешкоди.
В зоні ризику (Underperform)
Dropbox. Низькі бали через структурні проблеми зі зростанням та вічні «факапи» в реалізації стратегії.
Backblaze. Головна проблема - відсутність прибутку при поточних масштабах. Як «чистий» гравець у хмарному сховищі, компанія ризикує стати неважливою на тлі мультипродуктових гігантів.
N-able. Застаріла модель оплати «за місце» та сумнівні перспективи прискорення доходів.
Важливо розуміти, що цей звіт стосується лише публічних компаній. Тут немає стартапів на кшталт VAST Data чи Veeam, які часто є ще агресивнішими.
Але висновок очевидний. AI - це великий фільтр, й ті компанії, які роками сиділи на стабільному доході від підписок «за голови», зараз опинилися під загрозою. Ринок хоче гнучкості та AI-нативності.
Постійна тенденція останніх років - обсяги даних зростають швидше, ніж наші можливості їх усвідомити. Ми генеруємо петабайти контенту: від деталізованих метавсесвітів до нескінченних навчальних вибірок для нейромереж. І поки скептики роками пророкували смерть жорстким дискам (HDD), компанія Seagate повідомила нові деталі технології Mozaic 5+, яка залишила HDD у грі та зробила їх фундаментом цифрової цивілізації.
Нагадаємо, в основі сімейства Mozaic лежить технологія HAMR (Heat-Assisted Magnetic Recording – термомагнітний запис). Проблема старих дисків була в «магнітній межі»: якщо робити комірки пам'яті надто маленькими, вони стають нестабільними та втрачають дані.
Seagate вирішила це завдання за допомогою лазера. Платформа Mozaic 5+ – це черговий етап розвитку цього підходу, який дозволить довести щільність запису до 10 ТБ на пластину. Щоб записати дані на надщільну поверхню, крихітний лазерний діод нагріває крапку на пластині до певних температур за наносекунди, миттєво змінює її полярність і швидко охолоджує. Все це відбувається на льоту, поки пластина обертається зі швидкістю тисячі обертів за хвилину.
Що робить ці диски такими особливими? Seagate виділяє чотири ключові компоненти.
Пластини з надрешіткою зі сплаву платини: щоб дані не «розсипалися» за такої щільності, матеріал пластин був змінений на атомарному рівні. Тепер це наноструктуроване покриття, яке утримує магнітний заряд навіть у найекстремальніших точках.
Плазмонний записувач (Plasmonic Writer) - це той самий "нано-ліхтарик". Він настільки малий і точний, що спрямовує енергію лазера на площу кілька нанометрів.
Спінтронний зчитувач 7-го покоління: коли дані записані так щільно, їх неймовірно складно прочитати. Нові датчики використовують квантові ефекти, щоб розпізнавати слабкі магнітні поля, не допускаючи помилок.
12-нанометровий вбудований контролер — це «мозок» диска. Він втричі потужніший за попередні покоління і керує всіма процесами — від калібрування лазера до корекції помилок — споживаючи при цьому мінімум енергії.
В Mozaic 5+ щільність досягає 10 ТБ на одну пластину. За заявою Seagete, це дозволило досягти місткості HDD 65 ТБ. Для порівняння, недавно офіційно оголошених HDD на базі технології Mozaic 4+ забезпечується максимальний обсяг 44 ТБ. Отже, дата-центрам більше не потрібно будувати нові будівлі — вони можуть просто замінити старі диски на нові, збільшивши ємність своїх сховищ у кілька разів у тому самому просторі.
Великі диски - це менше серверів, менше кабелів, менше систем охолодження і, що найважливіше, значно менше споживання електрики на кожен терабайт. Перехід на Mozaic 5+ знижує загальну вартість володіння (TCO) на 40-50%. У 2026 році, коли екологічні стандарти стали жорсткішими, ніж будь-коли, це критичний аргумент.
Генеративний AI «пожирає» дані. Моделі рівня Llama 4 чи GPT-5 потребують колосальних архівів для навчання. Технологія Seagate забезпечує економічно вигідне зберігання цих масивів, без яких прогрес нейромереж просто зупинився б.
Тому, поки SSD забезпечують швидкість, HDD на базі Mozaic забезпечують масштаб. І судячи з дорожньої карти компанії, 80-терабайтні диски на початок наступного десятиліття — це вже не фантастика, а неминучість.
Залучення інвестицій у розмірі 500 мільйонів доларів стартапом matX стало доволі гучною подією. Цей раунд фінансування не просто підкреслює високий інтерес до альтернатив панівним рішенням від Nvidia, а й виводить на передній план нову філософію проєктування чипів - рішень, орієнтованих виключно на потреби великих мовних моделей.
Основою амбіцій matX є професійний бекграунд його засновників — Райнера Поупа (Reiner Pope) та Майка Гантера (Mike Gunter). Обидва тривалий час працювали у Google над розробкою тензорних процесорів (TPU), які сьогодні вважаються чи не єдиною реальною альтернативою графічним процесорам (GPU) у хмарних обчисленнях. Райнер Поуп відомий як один із провідних розробників програмного забезпечення для моделі PaLM, а Майк Гантер керував проєктуванням кількох поколінь TPU. Цей тандем дозволив стартапу з перших днів сфокусуватися на подоланні головної слабкості універсальних GPU - надмірної складності архітектури, яка не завжди ефективно використовується при роботі з алгоритмами Transformer.
Підхід matX кардинально відрізняється від стратегії Nvidia.Якщо чипи Blackwell або майбутні покоління GPU залишаються універсальними інструментами для графіки, симуляцій та АІ, архітектура matX розроблена за принципом «одне велике обчислювальне ядро». Замість того щоб координувати роботу тисяч дрібних ядер, процесор matX використовує масивні матричні блоки, оптимізовані під операції множення матриць, які складають понад 90% обчислювального навантаження при інференсі та навчанні АІ. Такий підхід дозволяє радикально знизити витрати на передачу даних між компонентами чипа та зменшити енергоспоживання. Компанія стверджує, що видалення зайвих блоків, призначених для обробки графіки та застарілих інструкцій, звільнило величезну площу кристала для обчислювальних елементів та кеш-пам’яті.
Також варто відзначити, що matX фокусується на розв'язанні проблеми «стіни пам'яті». У сучасних AI-задачах швидкість обчислень часто обмежена не потужністю процесора, а швидкістю доступу до даних. Чип від matX інтегрує інноваційну систему керування пам’яттю, яка дозволяє обробляти гігантські обсяги параметрів моделей з мінімальними затримками. Це досягається завдяки використанню надширокої шини даних та оптимізованого розміщення блоків пам'яті HBM (High Bandwidth Memory) безпосередньо поруч із логічними елементами. Таке компонування дозволяє процесору працювати як єдиний монолітний механізм, де кожен транзистор, пущений в дію у математичних операціях, специфічних для архітектури трансформерів. Крім того, інженери відмовилися від традиційної ієрархії кешу, замінивши її більш гнучкою структурою, яка динамічно адаптується під потреби конкретної нейромережі. Це дозволяє уникнути простоїв обчислювальних блоків, які в традиційних GPU часто чекають на підвантаження даних з віддалених зон пам'яті.
Економічна ефективність нової розробки базується на щільності обчислень. За словами розробників, їхній чип здатний забезпечити у кілька разів вищу продуктивність на кожен квадратний міліметр кремнію порівняно з флагманськими рішеннями конкурентів. Це критично важливо в умовах глобального дефіциту виробничих потужностей на заводах TSMC, оскільки дозволяє отримувати більше обчислювальної потужності з тієї ж кількості пластин.
Окрім апаратної частини, matX активно розвиває власний програмний стек, намагаючись зробити перехід з екосистеми CUDA максимально безболісним для розробників. Компанія створює компілятор, який автоматично оптимізує код PyTorch або JAX під їхню специфічну архітектуру. Це дозволяє розробникам запускати наявні моделі без необхідності переписувати їх на низькому рівні, що традиційно є найскладнішим бар'єром для будь-якого новачка у цій індустрії.
Сума у пів мільярда доларів дозволить стартапу перейти від стадії прототипів до масового виробництва та розгортання власних хмарних потужностей. Ринок AI-чипів сьогодні перебуває у фазі трансформації: клієнти рівня Microsoft, Meta та OpenAI дедалі частіше шукають спеціалізовані рішення, які дозволять знизити вартість експлуатації нейромереж. Якщо matX вдасться підтвердити заявлені характеристики в реальних умовах дата-центрів, це може суттєво похитнути монополію Nvidia, змусивши індустрію рухатися в бік вузькоспеціалізованих архітектур, де кожен елемент працює виключно на швидкість генерації тексту, зображень чи коду. Такий підхід обіцяє не просто кількісне покращення швидкості, а якісний стрибок у доступності AI-технологій для бізнесу будь-якого масштабу.
Ви колись замислювалися, чому сучасні AI-моделі іноді «гальмують» із відповіддю, хоча всередині сервера стоять топові GPU? Проблема не у швидкості обчислень, а в пам'яті. Точніше, у вічній дилемі: обрати надшвидку, але малу HBM, або величезну, але повільну флешпам’ять (SSD).
Компанія SK Hynix вирішила, що обирати не обов'язково. У своїй новій науковій роботі для IEEE вона представила архітектуру, яка поєднує швидкість HBM та місткість флешпам’яті прямо «під капотом» відеокарти.
Сучасні GPU (наприклад, майбутня Nvidia Rubin) використовують HBM-пам'ять, підключену через інтерпозер. Вона неймовірно швидка, але її місткості катастрофічно не вистачає для гігантських моделей. Коли місце в HBM закінчується, дані доводиться тягнути зі звичайних SSD через шину PCIe. Це як намагатися пити коктейль через дуже тонку і довгу соломинку — швидкість падає миттєво.
Це особливо критично для KV-кешу (структури, де зберігається контекст розмови). Наприклад, нова Llama 4 підтримує контекст до 10 млн токенів. Для зберігання такого об'єму потрібно близько 5,4 ТБ пам'яті. Щоб просто втримати ці дані в HBM, сьогодні потрібно об'єднувати десятки GPU в один кластер.
SK Hynix пропонує додати на той самий інтерпозер, де стоять чипи GPU та HBM, ще й HBF (High-Bandwidth Flash).
HBF має свої «суперсили» та слабкості. Серед переваг, перш за все, місткість, яка до 16 разів більша, ніж у HBM, та швидкість: пропускна здатність на рівні HBM (набагато швидше за будь-який SSD).
Є й недоліки. Так затримка вища, ніж у HBM (мікросекунди проти наносекунд), та флешпам’ять не любить постійного перезапису й витримує близько 100 000 циклів.
Таким чином було прийняте рішення використовувати HBF як гігантський кеш для даних, які потрібно переважно читати, а не записувати. Наприклад, для ваг моделі та вже обчислених контекстів (KV-кешу).
Дослідники протестували модель на базі архітектури Nvidia Blackwell (B200) з 8 стеками HBM3E та 8 стеками HBF. Ось що вийшло.
Швидкість генерації токенів зросла у 1,25 раза для контексту в 1 млн токенів та у неймовірні 6,14 раза для 10 млн токенів порівняно з системою лише на HBM.
Показник продуктивності на ват покращився у 2,69 раза.
Тепер навантаження, для якого раніше було потрібно 32 відеокарти (суто через обсяг пам'яті), можна обробити всього на двох GPU. Це колосальна економія на електриці та вартості серверів.
Ми входимо в «Еру агентів», де AI повинен пам'ятати величезні пласти інформації про користувача в реальному часі. Технологія робить «довгу пам'ять» AI дешевшою та швидшою. Замість того щоб будувати цілі ферми з GPU, компанії зможуть запускати надпотужні моделі на компактніших та енергоефективніших системах.
Це ще один крок до того, щоб складний AI став не просто іграшкою для корпорацій, а доступним інструментом у кожному офісі.
Сьогоднішні дискусії про майбутнє телекомунікацій дедалі частіше зосереджуються на терагерцовому діапазоні, який обіцяє стати фундаментом для мереж шостого покоління. Проте перехід від теорії до практичного впровадження ТГц-технологій стикається з фундаментальними фізичними обмеженнями.
Традиційні мікросхеми у цьому частотному спектрі виявляються надзвичайно вразливими до найменших дефектів виробництва, а втрати енергії при вигинах хвилеводів роблять створення ефективних пристроїв складним та дорогим завданням. Розробка дослідників з Наньянського технологічного університету (Сінгапур) та Осакського університету (Японія) пропонує вихід із цього глухого кута за допомогою концепції топологічної ізоляції, реалізованої безпосередньо на кремнієвому чіпі.
Терагерцові хвилі (між мікрохвилями та інфрачервоним світлом) мають колосальну пропускну здатність, але вони надзвичайно примхливі. Традиційні хвилеводи та антени страждають від розсіювання сигналу на будь-яких нерівностях чи вигинах структури чіпа. Найменший дефект під час літографії перетворює високоефективний пристрій на «цеглину».
Тут на сцену виходить топологічна ізоляція — концепція, за яку у 2016 році було присуджено Нобелівську премію з фізики. Вона описує матеріали, що є ізоляторами всередині, але проводять енергію по своїх краях. Що найважливіше — цей рух є «топологічно захищеним»: хвиля огинає перешкоди та дефекти, не відбиваючись назад і не втрачаючи потужності.
Дослідники з Сінгапуру та Японії реалізували цей принцип на звичайній кремнієвій підкладці, що є критично важливим для комерціалізації (сумісність із CMOS-процесами).
На кремнієвій пластині витравлено масив гексагональних (шестикутних) отворів. Зміна розміру та розташування цих отворів створює межу між двома різними топологічними фазами. Електромагнітні хвилі ТГц-діапазону змушені рухатися суворо вздовж цієї межі. Навіть якщо шлях має гострі кути або виробничі дефекти, хвиля проходить крізь них без розсіювання.
Як зазначається, нова антена демонструє значно вищу спрямованість та нижчий рівень шуму порівняно зі стандартними рішеннями.
Під час експериментів чип продемонстрував здатність передавати дані на частоті 0,3 ТГц зі швидкістю 11 Гбіт/с. Це вже перевищує можливості більшості сучасних систем зв'язку, але автори стверджують, що це лише початок. Потенціал технології дозволяє досягти 1 Тбіт/с і вище.
Майбутні мережі стандарту 6G потребуватимуть саме таких стабільних ТГц-компонентів для забезпечення роботи голографічного зв'язку та систем доповненої реальності (AR) у реальному часі.
Технологія на базі нової розробки може бути використана для створення надшвидкісних ліній зв'язку всередині центрів обробки даних та між процесорами в суперкомп'ютерах, де традиційні мідні або навіть оптичні рішення стикаються з обмеженнями енергоефективності та щільності.
Топологічний захист дозволяє знизити вимоги до точності виготовлення чіпів, що потенційно зменшує відсоток браку та вартість кінцевих пристроїв.
Пам’ятаєте прогнози про те, що SSD ось-ось остаточно «поховають» старі добрі жорсткі диски (HDD)? Схоже, ці похорони доведеться відкласти на невизначений термін.
Компанія VDURA, постачальник рішень для високопродуктивних обчислень (HPC) та AI, оприлюднила приголомшливі дані: ціновий розрив між SSD та HDD не просто зростає — він перетворився на справжню прірву.
Ось короткий розбір того, що відбувається на ринку пам’яті станом на початок 2026 року і чому ваші бюджети на залізо можуть «тріщати по швах».
Згідно з новим звітом Flash Volatility Index (FVI) від VDURA, за період з другого кварталу 2025 року по перший квартал 2026-го ринок охопило справжнє божевілля:
Для корпоративних SSD (30 TB TLC) ціна злетіла на 257%! Якщо раніше такий диск коштував близько $3062, то тепер за нього просять $10950.
В той же час жорсткі диски (HDD) подолали цей шлях значно спокійніше — ціна зросла лише на 35%.
В результаті, якщо у 2025 році SSD був дорожчим за HDD у 6,2 раза, то сьогодні цей показник становить 16,4 раза. Економіка побудови сховищ «тільки на флеш-пам’яті» (all-flash) раптово стала фінансовим екстримом.
Ерік Сало, віцепрезидент VDURA, каже прямо: «Правила гри змінилися». Й на то є кілька причин дефіциту та космічних цін. По-перше, великі хмарні провайдери викупили левову частку виробничих потужностей SSD аж до кінця 2026 року. Крім того, нейромережі «пожирають» пам'ять у неймовірних масштабах. Це стосується не лише дисків: ціни на DRAM за той самий період підскочили на 205%. Та й швидкісні комутатори та адаптери також у дефіциті, що тягне вгору загальну вартість систем.
VDURA наводить показовий приклад: розгортання сховища на 25 ПБ. У 2025 році All-Flash архітектура коштувала б 8,5 млн дол. на рік, тоді як у 2026 році та сама конфігурація обійдеться вже у 24,5 млн дол.
Чи є рішення? Гібридні архітектури. Комбінування швидких SSD для критичних обчислень та містких HDD для зберігання основних масивів даних дозволяє зберегти продуктивність, не оголошуючи компанію банкрутом. Гібридні системи показали значно менше зростання вартості за цей період.
Прогнози невтішні: тиск на ціни може зберігатися протягом усього 2027 року. Епоха стабільно дешевої NAND-пам’яті закінчилася. Тепер інфраструктурним командам доводиться ставати справжніми фінансовими стратегами, щоб балансувати між швидкістю та реальністю.
Світ великих мовних моделей стрімко трансформується: від простих текстових генераторів ми переходимо до багатокомпонентних автономних агентів, здатних оперувати контекстом у мільйони токенів.
Це ставить перед IT-інфраструктурою виклик зовсім іншого масштабу — проблему збереження та швидкого доступу до KV-кешу (Key-Value cache), обсяги якого вже не вкладаються у традиційну ієрархію пам'яті. NVIDIA запропонувала своє бачення розв'язання цієї проблеми, представивши на CES 2026 платформу Inference Context Memory Storage Platform (ICMSP), що фактично запроваджує новий стандарт AI-орієнтованих сховищ.
Традиційна архітектура серверів, де дані мігрують між швидкою пам'яттю HBM на GPU та системною DRAM, стала вузьким місцем для сучасних інференс-навантажень. У новій структурі Vera Rubin SuperPod компанія NVIDIA виділяє окремий рівень G3.5 — спеціалізований ярус флешпам'яті з Ethernet-підключенням, що виступає «довготривалою пам'яттю» для AI-агентів. Центральним елементом цієї системи є процесор обробки даних BlueField-4 (BF4), який бере на себе функції управління введенням-виведенням KV-кешу, розвантажуючи при цьому основні обчислювальні ресурси Grace- та Vera-процесорів.
Технічна реалізація ICMSP в архітектурі Vera Rubin вражає масштабами: окрема стійка з BF4-вузлами містить 16 спеціалізованих шасі, кожне з яких об'єднує чотири блоки BlueField-4. За кожним таким DPU закріплено до 150 ТБ NVMe-місткості, що в сукупності дає майже 10 ПБ виділеної контекстної пам'яті на один SuperPod. Згідно з розрахунками NVIDIA, така інфраструктура здатна забезпечити до 16 ТБ контекстної пам'яті на кожен окремий графічний процесор Rubin. Це дозволяє утримувати історію тисяч одночасних діалогів та складних багатокрокових операцій у безпосередній близькості до обчислювальних ядер, мінімізуючи затримки при повторному зверненні до контексту.
Особливістю ICMSP є її вузька спеціалізація. На відміну від класичних корпоративних сховищ, ці масиви JBOF (Just a Bunch of Flash) не обтяжені сервісами дедуплікації, миттєвих знімків або реплікації. Їхня єдина мета — максимально швидке обслуговування запитів до KV-кешу. Керування даними здійснюється на рівні програмного стека NVIDIA Dynamo та бібліотеки NIXL (Inference Transfer Library), які дозволяють асинхронно переміщувати блоки контексту між HBM, пам’яттю хоста та рівнем ICMSP. Завдяки використанню протоколів RDMA та мережі Spectrum-X Ethernet забезпечується стабільно низька затримка, що дозволяє «підкачувати» потрібні блоки пам’яті ще до початку фази декодування токенів.
Важливим аспектом стратегії NVIDIA є відкритість цієї архітектури для партнерів. Хоча еталонний дизайн розроблено самою компанією, кінцеві рішення будуть постачатися такими лідерами ринку, як Dell, HPE, Pure Storage, VAST Data та WEKA. Це створює нову екосистему, де традиційні постачальники систем збереження даних трансформують свої продукти в інтегровані компоненти AI-фабрик. Для бізнесу це означає можливість отримати п'ятикратне зростання швидкості генерації токенів (TPS) та аналогічне підвищення енергоефективності порівняно зі стандартними мережевими сховищами.
У підсумку можна зазначити, ICMSP є логічним кроком NVIDIA у спробі повністю контролювати не лише обчислювальний цикл AI, а й життєвий цикл контекстних даних. Перетворення контексту на «ресурс першого класу» дозволяє будувати масштабовані системи для багатопотокових агентів, де кожна деталь інфраструктури — від DPU до спеціалізованих бібліотек DOCA — працює на мінімізацію простою GPU. Це перехід від простого зберігання файлів до створення динамічного середовища пам’яті, яке здатне підтримувати інтелектуальні системи наступного покоління.
Можливості сучасних GPU при обробці завдані AI, хоч і вражають, але поступово впираються у фізичні обмеження кремнієвої електроніки. Колосальні потреби в енергії, перегрів та затримки при передачі сигналів стають «вузьким місцем» для подальшого масштабування великих моделей.
На цьому тлі розробка чипа LightGen групою дослідників під керівництвом Ітона Ченя (Yitong Chen) з Shanghai Jiao Tong University, виглядає як спроба радикальної зміни архітектурної парадигми. Це перший повністю оптичний процесор, здатний виконувати складні завдання передового Generative AI зі швидкістю, що на порядки перевищує показники традиційних рішень.
Головна складність перенесення генеративних алгоритмів на фотонні рейки завжди полягала у фундаментальних обмеженнях конструкції ранніх систем, які не були пристосовані до ітераційної природи нейромереж. У LightGen цю проблему вирішили через створення спеціального оптичного латентного простору. Це дозволяє обробляти дані у стислому вигляді безпосередньо в оптичному домені, уникаючи енерговитратних циклів конвертації світла в електрику і назад. Такий підхід у поєднанні з алгоритмами навчання на основі методу Байєса дає змогу динамічно змінювати розмірність оптичної мережі, використовуючи виключно світлові процеси.
Масштаб розробки вражає навіть за мірками напівпровідникової індустрії: чип містить понад 2 мільйони фотонних «нейронів». Така щільність обчислювальних елементів дозволяє LightGen брати на себе завдання, які раніше були прерогативою потужних серверних кластерів. Йдеться про синтез зображень високої роздільної здатності, складні маніпуляції з відео та професійну стилізацію контенту. При цьому автори дослідження підкреслюють, що ці операції виконуються не просто швидше, а з принципово іншим рівнем енергоефективності, що є критичним для майбутніх дата-центрів.
Фактично, поява LightGen маркує перехід від експериментальних прототипів до життєздатного фотонного заліза, здатного працювати з найскладнішими моделями сучасності. Якщо раніше оптичні обчислення розглядалися як нішева технологія для вузьких математичних задач, то тепер вони стають реальним претендентом на роль фундаменту для надшвидкого AI наступного покоління. Подальша доля проєкту залежатиме від того, наскільки швидко вдасться інтегрувати такі чипи в наявну інфраструктуру та подолати технологічний розрив між лабораторними зразками та масовим виробництвом
2D-транзистори на основі двовимірних матеріалів демонструвалися в академічних колах та дослідницьких лабораторіях понад десять років, проте жодна з цих демонстрацій не була сумісна з великосерійним виробництвом напівпровідників.
Вони спиралися на малі пластини, кастомні дослідницькі інструменти та крихкі технологічні етапи. Проте цього тижня Intel Foundry та imec продемонстрували готову до 300-міліметрових пластин інтеграцію критичних технологічних модулів для 2D-польових транзисторів (2DFET). Це свідчить про те, що 2D-матеріали та 2DFET стають реальністю.
Навіщо потрібні 2D-матеріали? Сучасні передові логічні технології — такі як Intel 18A, Samsung SF3E, TSMC N2 — базуються на пристроях із всеохоплюючим затвором (GAA). Провідні чипмейкери також розробляють комплементарні FET (CFET), щоб вертикально штабелювати транзистори для збільшення щільності.
Однак Intel та інші виробники стверджують, що подальше масштабування зрештою підштовхне кремнієві канали до їхніх фізичних меж, де електростатичний контроль і рухливість носіїв погіршуються через екстремально малі розміри. Для розв'язання цієї проблеми галузь все частіше оцінює 2D-матеріали, які можуть формувати канали товщиною всього в кілька атомів, зберігаючи при цьому сильний контроль струму.
Intel та imec представили на конференції IEDM статтю, де детально описали роботу з сімейством дихалькогенідів перехідних металів (TMD). В продемонстрованих структурах:WS₂ та MoS₂ використовувалися для транзисторів n-типу. WSe₂ слугував матеріалом каналу p-типу.
Головним досягненням стала сумісна з масовим виробництвом схема інтеграції контактів та затворного стека. Intel виростила високоякісні 2D-шари та покрила їх багатошаровим стеком з AlOx, HfO2 та SiO2. Потім ретельно контрольоване селективне травлення оксиду дозволило сформувати верхні контакти за дамаською технологією. Цей крок зберіг цілісність підкладкових 2D-каналів, які надзвичайно чутливі до забруднення та фізичних пошкоджень.
Важливість цієї спільної роботи Intel та imec полягає не в негайному випуску продукту. 2D-транзистори — це перспектива довгострокового майбутнього, можливо, другої половини 2030-х або навіть 2040-х років. Цінність роботи полягає в мінімізації ризиків розробки. Валідуючи модулі контактів і затворів у середовищі виробничого класу, Intel Foundry дозволяє замовникам і внутрішнім командам оцінювати 2D-канали, використовуючи реалістичні сценарії масштабування, а не ідеалізовані лабораторні умови.
Наразі стратегія Intel полягає в тому, щоб розглядати 2D-матеріали як опцію майбутнього, яку можна оцінити задовго до того, як кремній досягне своїх остаточних меж. Спільно розробляючи процеси з такими партнерами, як imec, Intel сподівається завчасно розв'язати проблеми виробництва та уникнути "сюрпризів" на пізніх стадіях, коли нові матеріали нарешті стануть необхідними.