Як свідчать нові дані від Ember Energy Research, сонячна та вітрова енергетика зростають настільки швидко, що покрили весь новий світовий попит на електроенергію протягом перших трьох кварталів 2025 року. Тепер очікується, що виробництво енергії з викопного палива залишиться на тому ж рівні протягом усього року - вперше з часів пандемії генерація цього типу не зросте.
Сонячна та вітрова енергія не просто розширюються; вони випереджають зростання глобального попиту на електроенергію. Зокрема, сонячна генерація підскочила на 498 ТВт⋅год (+31%) порівняно з аналогічним періодом минулого року, вже перевищивши обсяг сонячної енергії, виробленої за весь 2024 рік. Вітрогенерація додала ще 137 ТВт⋅год (+7.6%). Разом ці джерела постачили 635 ТВт⋅год нової чистої електроенергії, що перевищило зростання глобального попиту на 603 ТВт⋅год (+2.7%). Це підвищило частку сонячної та вітрової енергії у світовій електроенергетиці до 17.6% за перші три квартали року (порівняно з 15.2% минулого року), а загальна частка всіх відновлюваних джерел сягнула 43%.
Вперше у 2025 році відновлювані джерела енергії колективно згенерували більше електроенергії, ніж вугілля. Генерація викопного палива в цілому застопорилася, навіть трохи знизившись на 0.1% до кінця третього кварталу. Ember очікує відсутності зростання викопного палива за весь рік завдяки тому, що зростання чистої енергії випереджає попит. Цей зсув частково обумовлений Китаєм та Індією. У Піднебесні викопна генерація впала на 1.1%, оскільки чиста енергія покрила весь новий попит, що стало результатом структурних змін. Індія побачила падіння викопної генерації на 3.3% завдяки рекордному зростанню сонячної та вітрової енергії та м'якшій погоді.
Саме сонячна енергія виконує основну роботу. Вона тепер є найбільшим рушієм змін у світовому енергетичному секторі, із зростанням у понад три рази більшим, ніж будь-яке інше джерело електроенергії. Як зазначає Ніколас Фулгум (Nicolas Fulghum), старший аналітик даних Ember, рекордне зростання сонячної енергії та стагнація генерації з викопного палива показують, як відновлювана енергетика стала рушійною силою в глобальній економіці. Викопне паливо, яке історично було сегментом зростання, тепер, схоже, входить у період стагнації та контрольованого занепаду. Навіть Китай, який був найбільшим джерелом зростання у використанні викопного палива, досяг поворотного моменту, що свідчить про те, що залежність від цього типу енергогенерації для задоволення зростаючого попиту спадає все більше.
Зростання попиту на електроенергію склало 2.7% за перші три квартали 2025 року, що значно повільніше, ніж стрибок на 4.9%, зафіксований минулого року, коли екстремальна спека спричинила підвищення попиту на охолодження в Китаї, Індії та США. Цьогорічна м'якша погода допомогла зменшити навантаження на мережу, полегшивши чистій енергії закриття розриву.
Загалом, уперше поза межами великих криз, як-от пандемія чи світова фінансова криза, зростання чистої енергії не лише наздогнало попит, а й перевищило його. Наступне велике питання: чи зможуть сонячна, вітрова та інші джерела чистої енергії постійно підтримувати цей темп? Якщо так, то 2025 рік може стати роком, коли світова генерація викопного палива досягла свого плато. Цей перехід також матиме глибокі геополітичні наслідки, розділяючи країни на ті, що покривають свої потреби дешевою, чистою енергією власного виробництва, і ті, що залишаються залежними від дорогого імпорту викопного палива.
Collins English Dictionary назвав "Vibe coding" Словом року 2025. Ця подія сигналізує: ера, коли розробники годинами писали код вручну, видається, добігає кінця.
Термін, який насправді складається з двох слів, був обраний на тлі того, як штучний інтелект відіграє дедалі більшу роль у нашому житті, фундаментально змінюючи взаємодію людини з комп'ютерами.
Нагадаємо, "Vibe coding" – це форма розробки програмного забезпечення, що передбачає перетворення природної людської мови на комп'ютерний код за допомогою АІ. Дослівно у перекладі можна трактувати як "програмування на вібраціях" або "кодування за настроєм".
Як пояснюють лексикографи Collins, це "використання штучного інтелекту, що керується природною мовою, для допомоги у написанні комп'ютерного коду". Простіше кажучи: "Ви просто говорите машині, що ви хочете, замість того, щоб копітко кодувати це самостійно".
Автором терміну є колишній директор АІ у Tesla та інженер-засновник OpenAI Андрій Карпатий (Andrej Karpathy). Він описав цей процес як створення програми за допомогою АІ, коли людина може "забути, що код взагалі існує".
Керувальний директор Collins Алекс Бікрофт (Alex Beecroft) підкреслив, що вибір "vibe coding" "ідеально відображає, як мова розвивається разом із технологіями". Він сказав, що це "сигналізує про велику зміну в розробці ПЗ, де АІ робить кодування більш доступним. Безшовна інтеграція людської творчості та машинного інтелекту докорінно змінює нашу взаємодію з комп’ютерами." (“The selection of ‘vibe coding’ as Collins’ Word of the Year perfectly captures how language is evolving alongside technology... It signals a major shift in software development, where AI is making coding more accessible. The seamless integration of human creativity and machine intelligence demonstrates how natural language is fundamentally changing our interaction with computers.”)
Для моніторингу нових і помітних слів, Collins Dictionary використовує базу Collins Corpus, що містить 24 млрд слів з різних джерел, включно із соціальними мережами.
Терміни, що описують стосунки людей з технологіями, цього року зайняли чільне місце у списку.
"Clanker" - інше слово у шорт-листі, але воно має негативне забарвлення. Це зневажливий британський термін для робота, комп'ютера або певного типу АІ. "Broligarchy" - посилається на невелику кліку дуже багатих чоловіків, які мають політичний вплив. Collins наводить як приклади Марка Цукерберга, Джеффа Безоса, Ілона Маска та Сундара Пічаї, які були високопоставленими гостями на інаугурації президента США Дональда Трампа цього року.
"Henry" - абревіатура від "High Earner, Not Rich Yet" (Високооплачуваний, але ще не багатий).
Також до списку увійшли терміни, пов'язані з якістю життя та роботою: "Taskmasking" (створення помилкового враження продуктивності на робочому місці), "Micro-retirement" (перерва між періодами зайнятості для реалізації особистих інтересів) та "Biohacking" (зміна природних процесів тіла для покращення здоров'я та довголіття).
Примітно, Словом 2024 року був названий термін "Brat". А у 2023 році, за версією Collins English Dictionary, Словом року стала абревіатура АІ, яка означає "моделювання розумових функцій людини за допомогою комп'ютерних програм".
Минулими днями світ ІТ-інфраструктури отримав гучне нагадування: навіть технологічні гіганти, які здаються непохитними, не застраховані від фатальних помилок. Amazon Web Services (AWS) визнала, що масштабний збій, який вивів з ладу частину Інтернету на кілька днів, був спричинений конфліктом у системі автоматизації DNS (Domain Name System). Проблема торкнулася величезної кількості сервісів — від сайтів і хмарних застосунків до онлайн-ігор і «розумних» пристроїв.
Почалося все з того, що конфігурація DNS для бази даних Amazon DynamoDB у регіоні us-east-1 була пошкоджена й опублікована через сервіс Amazon Route 53. Це запустило ефект доміно: сервіси, які залежали від DynamoDB, перестали працювати, а нові екземпляри в Amazon EC2 не могли створюватись. Черги запитів почали накопичуватись, і навіть внутрішні системи AWS відчули наслідки. Ключова технічна причина — класична race condition: два компоненти — «DNS Planner» і «DNS Enactors» — одночасно обробляли оновлення. Один із них почав виконувати старий «план» змін, тоді як інший вже перейшов до нового. У результаті система отримала суперечливий стан: старі записи були застосовані поверх нових, а в деяких випадках DNS-таблиці опинились у стані «порожніх записів». Саме це й призвело до того, що частина хмарної інфраструктури «осліпла», не розуміючи, куди спрямовувати трафік.
AWS підкреслила, що автоматизовані системи — це необхідність для управління мільйонами ресурсів, але вони потребують надзвичайно ретельного проєктування. Цей випадок став ілюстрацією того, що навіть найкраща автоматизація може накопичувати технічний борг. Помилка в одній підсистемі здатна перетворитись на каскадну кризу, якщо не передбачені захисні механізми. Ситуація також показала межі масштабування: коли один ключовий елемент хмарної архітектури падає, ланцюгова реакція охоплює десятки інших сервісів. Балансувальники навантаження почали позначати робочі ноди як «мертві» через некоректні DNS-відповіді, що лише поглиблювало колапс. AWS заявила, що основний збій тривав близько трьох годин — із 19 жовтня 23:48 до 20 жовтня 02:40 — однак наслідки користувачі відчували ще протягом декількох днів.
Аналіз The Register виявив більше нюансів. По-перше, збій не мав жодного стосунку до АІ: автоматизація, яка керує хмарними системами, — це далеко не «штучний інтелект» у сенсі популярних уявлень. Автор підкреслив, що сценарій «це через АІ» — це міф. По-друге, ідея про те, що «багато-хмарність» (multi-cloud) є панацеєю на всі випадки відмови — теж міф. Переходячи до ще однієї платформи, організації часто отримують не другу точку відмови, а ще одну повноцінну точку провалу, що дає багато більше складнощів, ніж резерв. Третє: проблема «довгого хвоста» (long tail) — тобто, що якщо все ще не працює через тиждень-два, це вже не наслідок тієї аварії. Як зазначено: «Якщо ви досі маєте проблеми через тиждень — це не про цей інцидент».
Для українського ІТ-середовища ця історія має особливу вагу. Вона нагадує, що навіть найпотужніша «хмара» не може гарантувати абсолютної стабільності. Компаніям варто враховувати, що навіть глобальний провайдер хмари може упасти, і тому потрібно мати власні сценарії відмовостійкості. Важливо розділяти критичні елементи архітектури, проєктувати резервні канали доступу та регулярно перевіряти сценарії аварійного відновлення. Крім того, моніторинг і «health checks» мають бути гнучкими: якщо система автоматично виводить вузли з балансу лише через те, що не може коректно прочитати DNS-записи — це сигнал про слабкість самої архітектури. Гнучкі механізми ручного втручання мають бути обов’язковими у будь-якому середовищі, де від доступності залежить бізнес.
І нарешті, цей випадок ще раз доводить, що фраза «це просто DNS» часто означає набагато більше. Один незначний збій у фоновому процесі може перетворитися на глобальну кризу. У світі, де «хмара» означає тисячі взаємопов’язаних компонентів, ключовими стають не лише масштаб і швидкість автоматизації, а й уважність до деталей, ретельне тестування й готовність до непередбачуваного.
Поки більшість користувачів лише починає освоювати Wi-Fi 7, але галузь уже готується до впровадження наступного покоління — Wi-Fi 8 (IEEE 802.11bn), або, за термінологією розробників, Ultra High Reliability (UHR). Новий стандарт обіцяє не просто вищу швидкість, а насамперед якісно інший рівень стабільності та ефективності мережевого обміну.
На відміну від попередніх ітерацій, головний акцент Wi-Fi 8 зміщується з гігабітних піків на надійність у реальних умовах. Йдеться про мінімізацію втрат пакетів, покращення роботи при слабкому сигналі, зниження латентності та стабільність у сценаріях з високим навантаженням або великою щільністю точок доступу. За концепцією розробників IEEE, це має стати платформою для стабільного функціонування промислових IoT-середовищ, корпоративних WLAN і розумних міст.
Днями з'явилася новина, що компанія TP-Link першою офіційно підтвердила успішне проведення випробувань прототипу Wi-Fi 8. Повідомляється, що під час тестів були перевірені передача маякових сигналів (beacon) та реальний канал даних. За результатами, система продемонструвала стабільну роботу без втрат у типових сценаріях мережевого навантаження, що підтверджує працездатність базових механізмів нового стандарту.
Хоча TP-Link не розкриває конкретні технічні деталі обладнання, відомо, що проєкт реалізується у партнерстві з виробниками чипсетів — Qualcomm, Broadcom, Intel, MediaTek та іншими. Це свідчить про початок міжгалузевої координації, необхідної для формування повноцінної екосистеми Wi-Fi 8.
Згідно з попередніми технічними даними, теоретичні межі пропускної здатності залишаються на рівні Wi-Fi 7 — до 46 Гбіт/с. Проте інженери TP-Link оцінюють приріст ефективної швидкості в реальних умовах до 25 %, що досягається завдяки новим механізмам керування спектром і підвищеній стійкості до втрат пакетів.
Wi-Fi 8 не пропонує радикально нових діапазонів частот — робота все так само відбувається у смугах 2,4 ГГц, 5 ГГц і 6 ГГц. Проте основні зміни у способі використання спектра. Новий стандарт передбачає більш глибоку координацію між точками доступу через механізми Coordinated Spatial Reuse (Co-SR) та Coordinated Beamforming (Co-BF). Це дозволяє уникати колізій у багатоклітинних сценаріях, підвищуючи ефективність використання ефірного часу.
Ще одним ключовим напрямом розвитку є Dynamic Sub-Channel Operation (DSO) — динамічне призначення субканалів відповідно до поточного рівня завад і завантаження спектра. Такий підхід зменшує простої в передачі, забезпечуючи до 80% приросту ефективності в щільних середовищах.
Wi-Fi 8 також розвиває концепцію багатолінкових операцій, започатковану у Wi-Fi 7, і вдосконалює алгоритми формування променів. Це дозволяє не тільки підвищити швидкість доступу, а й забезпечити кращу синхронізацію між клієнтами, що переміщуються, наприклад у корпоративних кампусах або промислових цехах із великою кількістю точок доступу.
Wi-Fi 6 (802.11ax) був зосереджений на ефективності при багатьох клієнтах завдяки OFDMA та MU-MIMO, знизив латентність і зробив бездротові мережі придатними для корпоративних сценаріїв. Розробники Wi-Fi 7 (802.11be) сфокусувалися на мультиканальній роботі, подвоєнні ширини каналу до 320 МГц і підвищенні модуляції до 4096-QAM, що дозволило досягати пікових швидкостей понад 40 Гбіт/с.
Wi-Fi 8 розвиває ці напрацювання, але з іншим фокусом — надійність замість пікової швидкості. З технічного погляду, його завдання — зробити бездротові мережі більш передбачуваними у складних середовищах, де зараз навіть Wi-Fi 7 не завжди демонструє стабільність. Це має критичне значення для промислових систем, доповненої реальності, автономного транспорту та сценаріїв з високою чутливістю до затримок.
Станом на цей момент жоден із великих вендорів не представив комерційних пристроїв із підтримкою Wi-Fi 8. TP-Link продемонструвала лише тестовий зразок, який використовував експериментальні радіомодулі. Сертифікація стандарту в рамках WiFi Alliance очікується орієнтовно у 2028 році, після чого можна очікувати появу перших готових продуктів.
У проміжку між Wi-Fi 7 і Wi-Fi 8 виробники продовжать оптимізувати рішення для корпоративного сегмента. Зокрема, мультиканальні точки доступу, побудовані на архітектурі Wi-Fi 7, уже частково реалізують механізми, схожі на Co-SR і DSO. Тому можна очікувати, що перші комерційні реалізації Wi-Fi 8 стануть еволюційним розвитком нинішніх high-end платформ.
Якщо Wi-Fi 6 зробив бездротові мережі масштабованими, а Wi-Fi 7 — надшвидкими, то Wi-Fi 8 має зробити їх передбачуваними. Це — перехід від гонитви за піковими мегабітами до створення стабільної та керованої бездротової інфраструктури, здатної підтримувати критично важливі сервіси.
Корпорація TDK спільно з Університетом Хоккайдо розробила прототип резервуарного чіпа штучного інтелекту, використовуючи аналогову електронну схему, що імітує мозочок.
Обчислення на основі резервуарних нейронних мереж (Reservoir computing) — це обчислювальна модель, здатна обробляти прості часово-змінні дані та часові ряди, виконувати завдання з низьким енергоспоживанням і високою швидкістю. Концепція, яка контрастує з резервуарними нейронними мережами, — це модель глибокого навчання. З розвитком AI та використанням великих даних в останні роки стали очевидними проблеми обчислювальної обробки величезних обсягів даних і зростання енергоспоживання, а швидке поширення генеративного AI зробило обробку AI все більш залежною від хмари. Традиційні моделі глибокого навчання складаються з вхідного шару, прихованого шару та вихідного шару. Вхідний шар спочатку отримує інформацію, а прихований шар виконує величезну кількість обчислень. Фінальний вихідний шар показує результати навчання. Чим більше прихованих шарів, тим складніші обчислення (близько трильйонів) можна виконати. Однак це призводить до масової обробки даних, що спричиняє збільшення енергоспоживання та затримки.
З іншого боку, резервуарні нейронні мережі складаються з «вхідного шару», «резервуарного шару» та «вихідного шару». Резервуарний шар не обов’язково вимагає обчислень і використовує природні явища, які поширюються з часом. Наприклад, у вхідному шарі як вхідне значення використовується природне явище множинних хвиль на поверхні води. Наступний резервуарний шар надсилає результати поширення поверхневих хвиль та їх взаємної інтерференції до вихідного шару. Останній вихідний шар правильно зчитує стан резервуарного шару та виводить характеристики того, як рухалися хвилі на поверхні води. У резервуарному шарі результати природних явищ надсилаються без необхідності обчислень, тому кількість параметрів, які потрібно коригувати під час навчання, значно зменшується, і завдання можуть оброблятися з низьким енергоспоживанням і на високій швидкості. Тому очікується, що аналоговий резервуарний AI буде використовуватися в завданнях, які вимагають обробки інформації, адаптованої до індивідуальних ситуацій на периферійних пристроях, таких як роботи та людино-машинні інтерфейси, які вимагають високошвидкісної обробки без необхідності широкомасштабних обчислень. Традиційно вважалося, що пристрої резервуарних нейронних мереж важко впровадити в практичне використання. Це пов’язано з тим, що резервуарні нейронні мережі — це не універсальний AI, як глибокі нейронні мережі, а AI, який спеціалізується на обробці даних часових рядів. Крім того, було важко отримати переваги низького енергоспоживання, коли пристрої резервуарних нейронних мереж реалізовувалися в цифрових обчисленнях, і не було конкретних пристроїв резервуарних нейронних мереж, які використовували б фізичні явища для врахування енергоспоживання та високошвидкісних операцій.
Демонстраційний пристрій, який буде виставлений на CEATEC 2025 в Японії, покаже, що користувачі ніколи не зможуть виграти в «камінь-ножиці-папір», що стало можливим завдяки резервуарним нейронним мережам. Цей демонстраційний пристрій визначає жест руки користувача для «камінь-ножиці-папір», поки його пальці ще рухаються, і швидко показує виграшний жест наперед. У грі «камінь-ножиці-папір» є індивідуальні відмінності в русі пальців, і для точного визначення того, що робити далі, необхідно вивчити ці індивідуальні відмінності в реальному часі. Цей демонстраційний пристрій прикріплюється до рук користувачів, рух пальців вимірюється акселерометром, а просте завдання вирішення того, що грати в «камінь-ножиці-папір», обробляється в реальному часі та на високій швидкості на аналоговому резервуарному AI-чипі, що дозволяє користувачам усвідомити «камінь-ножиці-папір, у якому неможливо виграти». Демонструючи один варіант використання за допомогою прототипу чипа, розробленого в цьому проєкті, TDK сподівається сприяти ширшому розумінню резервуарних нейронних мереж і очікує, що це призведе до прискореної комерціалізації пристроїв резервуарних нейронних мереж для периферійних AI-застосувань на ринку.
Нагадаємо, TDK анонсувала нейроморфні пристрої, які імітують великий мозок, використовуючи спінтроніку у 2024 році, як пропозицію для розв'язання соціальних проблем. Цього разу компанія представить резервуарні нейронні мережі, які імітують мозочок з використанням різних фізичних явищ, таких як аналогові схеми, датчики та електронні компоненти. Нейроморфні пристрої виконують складні обчислення з низьким енергоспоживанням, тоді як пристрої резервуарних нейронних мереж спеціалізуються на часово-змінній інформації, такій як «камінь-ножиці-папір», і досягають низького енергоспоживання та швидких обчислень в ультранизькопотужних продуктах, таких як периферійні пристрої, які безпосередньо обробляють дані датчиків. У майбутньому TDK продовжить дослідження резервуарних нейронних мереж у співпраці з Університетом Хоккайдо та сприятиме розвитку «ринку екосистем AI», співпрацюючи з підрозділом Sensor Systems Business Company та TDK SensEI, який розробляє рішення для датчиків у периферійній області.
Компанія Microsoft представила Fairwater – свій найновіший американський центр обробки даних для AI, найбільшу і найсучаснішу AI-фабрику. Тож розберемось, що відрізняє її від звичайного дата-центру.
Слід зазначити, що на додаток до центру обробки даних Fairwater у Вісконсині Microsoft також будує кілька центрів, ідентичних Fairwater, в інших місцях по всій території США. Крім того, у Нарвіку, Норвегія, Компанія оголосила про плани з nScale та Aker JV щодо розробки нового гіпермасштабного центру обробки даних для AI. А у Лафтоні, Велика Британія, вона оголосила про партнерство з nScale для будівництва найбільшого в країні суперкомп'ютера для підтримки послуг у Великій Британії.
Ці центри обробки даних для AI є значними капітальними проєктами, що становлять десятки мільярдів доларів інвестицій і сотні тисяч передових AI-чипів, і будуть безперешкодно з'єднані з глобальною хмарою Microsoft Cloud, що налічує понад 400 дата-центрів у 70 регіонах по всьому світу. Завдяки інноваціям, які дозволяють об'єднати ці центри обробки даних у розподілену мережу, експоненційно множиться ефективність і обчислювальна потужність, щоб ще більше демократизувати доступ до послуг AI в усьому світі.
Отже, що таке центр обробки даних для AI? Це унікальний, спеціально побудований об'єкт, розроблений для навчання AI, а також для запуску великомасштабних моделей і додатків штучного інтелекту. Центри обробки даних для AI Microsoft забезпечують роботу OpenAI, Microsoft AI, наших можливостей Copilot та багатьох інших провідних робочих AI-навантажень.
Новий центр обробки даних для AI Fairwater у Вісконсині є видатним інженерним досягненням, що займає 315 акрів і складається з трьох масивних будівель загальною площею 1,2 млн квадратних футів. Для будівництва цього об'єкта знадобилося 46,6 милі глибоких фундаментних паль, 26,5 млн фунтів конструкційної сталі, 120 миль середньовольтних підземних кабелів і 72,6 милі механічних трубопроводів.
На відміну від типових хмарних центрів обробки даних, які оптимізовані для виконання багатьох менших, незалежних робочих навантажень, таких як розміщення вебсайтів, електронної пошти або бізнес-додатків, цей центр побудований для роботи як один масивний AI-суперкомп'ютер, що використовує єдину плоску мережу, яка з'єднує сотні тисяч новітніх графічних процесорів NVIDIA. Насправді він забезпечить у 10 разів більшу продуктивність, ніж найшвидший суперкомп'ютер у світі сьогодні, що дозволить виконувати робочі навантаження з навчання та висновків AI на рівні, якого ніколи раніше не бачили.
Ефективні AI-моделі покладаються на тисячі комп'ютерів, що працюють разом, оснащених графічними процесорами або спеціалізованими AI-прискорювачами, для обробки масивних паралельних математичних обчислень. Вони з'єднані надзвичайно швидкими мережами, щоб миттєво обмінюватися результатами, і все це підтримується величезними системами зберігання, які зберігають дані (такі як текст, зображення або відео), розбиті на токени — невеликі одиниці інформації, з яких навчається AI. Мета полягає в тому, щоб ці чипи були постійно зайняті, тому що якщо дані або мережа не можуть встигати, все сповільнюється.
Саме навчання AI — це цикл: AI обробляє токени послідовно, робить прогнози щодо наступного, звіряє їх з правильними відповідями та коригує себе. Це повторюється трильйони разів, поки система не стане краще виконувати те, для чого її навчають. Подумайте про це як про тренування професійної футбольної команди. Кожен графічний процесор — це гравець, який виконує вправу, токени — це розіграші, що виконуються крок за кроком, а мережа — це тренерський штаб, який вигукує інструкції та підтримує всіх у синхронізації. Команда повторює розіграші знову і знову, виправляючи помилки, поки не зможе виконати їх ідеально. Зрештою, AI-модель, як і команда, освоює свою стратегію і готова працювати в реальних ігрових умовах.
Спеціально побудована інфраструктура має вирішальне значення для ефективного забезпечення роботи AI. Щоб обчислити математику токенів у цьому масштабі з трильйоном параметрів провідних AI-моделей, ядро центру обробки даних AI складається з виділених AI-прискорювачів (таких як графічні процесори), встановлених на серверних платах поруч з центральними процесорами, пам'яттю та сховищем. Один сервер містить кілька прискорювачів графічних процесорів, з'єднаних для високошвидкісного зв'язку. Потім ці сервери встановлюються в стійку, з комутаторами (ToR), що забезпечують мережеве підключення з низькою затримкою між ними. Кожна стійка в центрі обробки даних з'єднана між собою, створюючи тісно пов'язаний кластер. Ззовні ця архітектура виглядає як багато незалежних серверів, але в масштабі вона функціонує як єдиний суперкомп'ютер, де сотні тисяч прискорювачів можуть навчати одну модель паралельно.
Цей центр обробки даних використовує єдиний, масивний кластер взаємопов'язаних серверів NVIDIA GB200 і мільйонів обчислювальних ядер та екзабайтів сховища, всі вони розроблені для найвимогливіших робочих AI-навантажень. Azure був першим хмарним провайдером, який запустив сервери NVIDIA GB200, стійки та повні кластери центрів обробки даних. Кожна стійка містить 72 графічних процесори NVIDIA Blackwell, з'єднані в єдиний домен NVLink, який забезпечує пропускну здатність 1,8 ТБ між графічними процесорами та надає кожному графічному процесору доступ до 14 ТБ об'єднаної пам'яті. Замість того щоб поводитися як десятки окремих чипів, стійка працює як єдиний, гігантський прискорювач, здатний обробляти 865000 токенів на секунду, що є найвищою пропускною здатністю серед усіх хмарних платформ, доступних сьогодні. Центри обробки даних AI в Норвегії та Великій Британії використовуватимуть подібні кластери та скористаються перевагами наступної розробки AI-чипів від NVIDIA (GB300), яка пропонує ще більше об'єднаної пам'яті на стійку.
Викликом при створенні масштабу суперкомп'ютера, особливо в міру того, як вимоги до навчання AI продовжують вимагати проривних масштабів обчислень, є правильне налаштування мережевої топології. Щоб забезпечити зв'язок з низькою затримкою на кількох рівнях у хмарному середовищі, Microsoft потрібно було розширити продуктивність за межі однієї стійки. Для найновіших розгортань NVIDIA GB200 і GB300 у всьому світі на рівні стійки ці графічні процесори спілкуються через NVLink і NVSwitch зі швидкістю терабайтів на секунду, усуваючи обмеження пам'яті та пропускної здатності. Потім, щоб з'єднати кілька стійок в одну групу, Azure використовує як InfiniBand, так і Ethernet, які забезпечують 800 Гбіт/с, у повній неблокуючій архітектурі, щоб гарантувати, що кожен графічний процесор може спілкуватися з будь-яким іншим графічним процесором на повній швидкості без заторів. А по всьому центру обробки даних кілька груп стійок з'єднані між собою, щоб зменшити кількість переходів і дозволити десяткам тисяч графічних процесорів функціонувати як єдиний суперкомп'ютер глобального масштабу.
При розміщенні в традиційному коридорі центру обробки даних, фізична відстань між стійками створює затримку в системі. Щоб розв'язати цю проблему, стійки в центрі обробки даних AI у Вісконсині розташовані у двоповерховій конфігурації, тому, крім мережевого з'єднання стійок з сусідніми стійками, вони також з'єднані з додатковими стійками над або під ними.
Цей багатошаровий підхід виділяє Azure. Microsoft Azure не тільки була першою хмарою, яка запустила GB200 в масштабі стійки та дата-центру; Microsoft робить це в масовому масштабі з клієнтами сьогодні. Завдяки спільній розробці повного стека з найкращими рішеннями від галузевих партнерів у поєднанні з власними спеціально побудованими системами, Microsoft створила найпотужніший, тісно пов'язаний суперкомп'ютер AI у світі, спеціально побудований для передових моделей.
Традиційне повітряне охолодження не може впоратися зі щільністю сучасного обладнання AI. Центри обробки даних Microsoft використовують передові системи рідинного охолодження — вбудовані труби циркулюють холодну рідину безпосередньо в сервери, ефективно відводячи тепло. Рециркуляція із замкнутим циклом забезпечує нульові втрати води: вода потрібна лише для одноразового заповнення, а потім постійно використовується повторно.
Спеціально проєктуючи центри обробки даних для AI, Microsoft змогла вбудувати інфраструктуру рідинного охолодження безпосередньо в об'єкт, щоб отримати більшу щільність стійок у дата-центрі. Fairwater підтримується другою за величиною у світі водоохолоджувальною чилерною установкою, яка буде безперервно циркулювати воду у своїй системі охолодження із замкнутим циклом. Потім гаряча вода відводиться до охолоджувальних «ребер» з кожного боку центру обробки даних, де 172 20-футові вентилятори охолоджують і повертають воду назад до центру обробки даних. Ця система підтримує ефективну роботу центру обробки даних AI, навіть при пікових навантаженнях.
Понад 90% потужностей центрів обробки даних Microsoft використовують цю систему, що вимагає води лише один раз під час будівництва та постійно використовує її повторно без втрат на випаровування. Решта 10% традиційних серверів використовують зовнішнє повітря для охолодження, переходячи на воду лише в найспекотніші дні — конструкція, яка значно зменшує використання води порівняно з традиційними дата-центрами.
Microsoft також використовує рідинне охолодження для підтримки робочих навантажень AI в багатьох власних наявних центрах обробки даних; це рідинне охолодження здійснюється за допомогою блоків теплообмінників (HXU), які також працюють з нульовим використанням води.
Сучасні центри обробки даних можуть містити екзабайти сховища та мільйони обчислювальних ядер CPU. Для підтримки кластера інфраструктури AI потрібна абсолютно окрема інфраструктура дата-центру для зберігання та обробки даних, що використовуються та генеруються кластером AI. Щоб навести приклад масштабу — системи зберігання центру обробки даних AI у Вісконсині мають довжину п'ять футбольних полів.
Було перероблено сховище Azure для найвимогливіших робочих навантажень AI, у масштабах цих масивних розгортань центрів обробки даних для справжнього суперкомп'ютерного масштабу. Кожен обліковий запис Azure Blob Storage може підтримувати понад 2 млн операцій читання/запису на секунду, а завдяки мільйонам доступних облікових записів можна еластично масштабуватися, щоб задовольнити практично будь-які вимоги до даних.
За цією можливістю стоїть фундаментально перероблена основа сховища, яка об'єднує місткість і пропускну здатність тисяч вузлів зберігання та сотень тисяч дисків. Це забезпечує масштабування сховища до екзабайтного масштабу, усуваючи необхідність ручного сегментування та спрощуючи операції навіть для найбільших робочих навантажень AI та аналітики.
Ключові інновації, такі як BlobFuse2, забезпечують високу пропускну здатність і доступ з низькою затримкою для локального навчання вузлів графічних процесорів, гарантуючи, що обчислювальні ресурси ніколи не простоюють і що масивні набори даних для навчання AI завжди доступні, коли це потрібно. Підтримка декількох протоколів дозволяє безперебійну інтеграцію з різноманітними конвеєрами даних, тоді як глибока інтеграція з аналітичними механізмами та інструментами AI прискорює підготовку та розгортання даних.
Автоматичне масштабування динамічно розподіляє ресурси в міру зростання попиту, у поєднанні з розширеною безпекою, стійкістю та економічно ефективним багаторівневим сховищем, платформа сховища Azure задає темп для робочих навантажень наступного покоління, забезпечуючи необхідну продуктивність, масштабованість і надійність.
Нові центри обробки даних для AI є частиною глобальної мережі центрів обробки даних Azure AI, з'єднаних через глобальну мережу (WAN). Йдеться не про одну будівлю, а про розподілену, відмовостійку та масштабовану систему, яка функціонує як єдина, потужна машина AI. AI WAN компанії створена з можливостями зростання в масштабах пропускної здатності, характерних для AI, щоб забезпечити широкомасштабне розподілене навчання в кількох, географічно різнорідних регіонах Azure, що дозволяє клієнтам використовувати потужність гігантського суперкомп'ютера AI.
Це фундаментальний зсув у нашому мисленні про суперкомп'ютери AI. Замість того щоб бути обмеженими стінами одного об'єкта, будується розподілена система, де обчислювальні ресурси, сховище та мережеві ресурси безперебійно об'єднуються та оркеструються в регіонах центрів обробки даних. Це означає більшу відмовостійкість, масштабованість і гнучкість для клієнтів.
Щоб задовольнити критичні потреби найбільших викликів AI, було потрібно переробити кожен шар інфраструктури хмарного стека. Йдеться не просто про ізольовані прориви, а про поєднання кількох нових підходів у сферах чипів, серверів, мереж і центрів обробки даних, що призводить до досягнень, де програмне та апаратне забезпечення оптимізуються як одна спеціально побудована система.
Центр обробки даних Microsoft у Вісконсині відіграватиме критично важливу роль у майбутньому AI, побудованому на реальних технологіях, реальних інвестиціях і реальному впливі на суспільство. Коли цей об'єкт буде з'єднано з іншими регіональними центрами обробки даних, і коли кожен шар інфраструктури Microsoft буде узгоджений як повна система, відкриється нова ера інтелекту, що працює на хмарі, безпечну, адаптивну та готову до того, що буде далі.
Електронні дисплеї цінуються за їхню читабельність і низьке енергоспоживання, але їх давно відкинули як занадто повільні для повсякденного використання. Однак стартап Modos вважає, що вирішив частину цієї проблеми за допомогою набору для розробки, здатного керувати електронним дисплеєм із частотою оновлення до рекордних 75 герців.
Modos Paper Monitor і Dev Kit, які зараз доступні для краудфандингу на Crowd Supply, поєднують стандартні панелі електронного паперу з відкритим кодом дисплейного контролера на базі FPGA. Хоча набір надає ентузіастам і розробникам повний пакет (з дисплеєм електронного паперу, драйвером дисплея та апаратним адаптером), він також є відправною точкою для експериментів з різними дисплеями електронного паперу.
«Я б сказав, що замість секретного соусу у нас є відкритий соус», — каже співзасновник Modos Олександр Сото (Alexander Soto). «Вам навіть не потрібно використовувати панель, яку ми пропонуємо. Ви можете використовувати іншу панель і все одно отримати [75 Гц]».
Більшість панелей електронного паперу оновлюються з частотою оновлення близько 10 Гц або менше. Деякі дисплеї навіть не вказують частоту оновлення і можуть потребувати до цілої секунди для оновлення.
Краща частота оновлення означає, що дисплей може показувати більше кадрів за секунду, що, своєю чергою, забезпечує більш плавний і реалістичний рух. Сучасне цифрове відео зазвичай передається зі швидкістю 30 або 60 кадрів в секунду, що до недавнього часу було далеко за межами можливостей дисплея з електронним папером. Це область, в якій електронний папір явно відстає від LCD, які починаються з 60 Гц і вище.
Modos здатний досягати частоти оновлення до 75 Гц на 13-дюймовій панелі з електронним папером з роздільною здатністю 1600x1200 пікселів. (Також доступна 6-дюймова панель з електронним папером з роздільною здатністю 1448x1072 пікселів і такою ж частотою оновлення). Збільшення частоти оновлення також зменшує затримку. Це важливий момент, оскільки дозволяє використовувати дисплей з електронним папером у ситуаціях, де затримка має значення, наприклад, у дисплеях комп'ютерів або планшетів.
«Багато людей за замовчуванням вважають, що електронні читалки або електронний папір повільні та будуть постійно блимати», — каже Сото. «Нашим завданням було відвідувати конференції, заходи та демонструвати людям, що електронний папір може бути дуже швидким».
Зазначена Modos частота оновлення 75 Гц є найвищою на сьогодні для дисплеїв з електронним папером, але, мабуть, це не є ключовою інновацією. Декілька конкурентів вже пропонують дисплеї з електронним папером із частотою оновлення до 60 Гц, що, хоч і нижче, але близько до цього показника.
Але Modos має не надто секретну зброю: Caster, контролер дисплея з електронним папером з відкритим кодом, який сумісний з широким спектром панелей з електронним папером. Контролер дисплея, який базується на AMD Spartan-6 FPGA, відрізняється від типових контролерів з електронним папером управлінням дисплеєм на рівні пікселів.
«Традиційно контролер [електронного дисплея] використовував одностановий автомат для управління всією панеллю, маючи лише два стани: статичний і оновлення», — каже співзасновник Modos Вентінг Чжан (Wenting Zhang). «Caster обробляє кожен піксель окремо, а не як цілу панель, що дозволяє локалізувати управління пікселями».
Контролер дисплея FPGA поєднується з Glider Mega Adapter від Modos, який включає чотири різні роз'єми дисплея, сумісні з декількома десятками електронних дисплеїв розміром від 4,3 до 13 дюймів. Сото каже, що адаптер можна використовувати для перероблення дисплеїв, врятованих зі старих електронних читалок, таких як Amazon Kindle.
Modos також надає інтерфейс прикладного програмування (API), написаний мовою програмування C, який дозволяє додаткам динамічно вибирати режими керування дисплеєм. Так менеджер вікон Linux може використовуватися для відображення тексту в бінарному кольоровому режимі з низькою затримкою, відображення карт у більш детальному, але чутливому сірому масштабі та відображення відео з максимальною точністю сірого масштабу — все це одночасно на одному екрані.
Код і схеми для Caster, Glider та API є відкритими та доступні на Github.
Краудфандингова кампанія Modos завершиться 18 вересня. Очікується, що замовлення будуть відправлені в січні 2026 року, хоча (як це часто буває у випадку краудфандингових проєктів) терміни доставлення не гарантуються.
Досягнення цього етапу зайняло кілька років. Спочатку засновники компанії сподівалися створити ноутбук з електронним папером, Modos Paper Laptop, про який було оголошено в січні 2022 року. Однак реалії виробництва електроніки ускладнили цей проєкт на самому початку, і ноутбук так і не був доступний для замовлення.
«Частково це було пов'язано з тим, що основне співвідношення сторін для більшості корпусів [ноутбуків] становить 16:9 і 16:10. А якщо подивитися на дисплеї з електронним папером, то їхнє співвідношення сторін становить 4:3. Тому нам довелося або виготовляти корпус на замовлення, або панель на замовлення, і те, і інше було надто дорогим», — каже Сото.
Постачання панелей також залишається перешкодою. Виробництво електронного паперу орієнтоване на електронні читалки та вивіски, а це означає, що більшість панелей не мають відповідного розміру для комп'ютера. Однак Modos Paper Monitor і Dev Kit знайшли практичний компроміс у нещодавно представлених 13-дюймових дисплеях з електронним папером, багато з яких мають роздільну здатність, схожу на LCD- і OLED-панелі, розроблені для ноутбуків.
Таким чином, Dev Kit є продовженням початкової мети Modos. Хоча створення повноцінного ноутбука з електронним папером було непрактичним, висока частота оновлення, контролер дисплея з відкритим кодом та API Dev Kit дають амбітним користувачам можливість реалізувати власний комп'ютерний дисплей з електронним папером з низькою затримкою — або будь-що інше, що їм заманеться.
Стартап d-Matrix, що розробляє цифрові обчислювальні чіпи з вбудованою пам'яттю, представив нову технологію 3D-пам'яті (3DIMC), яка обіцяє в 10 разів прискорити роботу моделей штучного інтелекту та скоротити енергоспоживання на 90% порівняно з поточним галузевим стандартом HBM4.
Компанія була заснована у 2019 році генеральним директором Сідом Шетом (Sid Sheth) і технічним директором Судіпом Бходжа (Sudeep Bhoja), обома керівниками компанії Inphi, що розробляє високошвидкісні міжмережеві з'єднання, яку у 2020 році за 10 млрд дол. придбала компанія Marvell. Її метою є розробка технології обчислювальних чіпів в оперативній пам'яті, яка забезпечує більший обсяг пам'яті для AI-висновків, ніж традиційна пропускна здатність DRAM, при цьому за значно менших витрат, ніж пам'ять з високою пропускною здатністю (HBM).
Сід Шет опублікував у LinkedIn: «Ми віримо, що майбутнє AI-висновків залежить від переосмислення не тільки обчислень, але й самої пам'яті. Ми прокладаємо шлях для нової парадигми обчислень у пам'яті (3DIMC), яка дозволяє нашій платформі DIMC продовжувати масштабуватися і пробивати межу пам'яті без втрати місткості та пропускної здатності пам'яті. Шляхом тривимірного укладання пам'яті та її більш тісної інтеграції з обчисленнями ми значно зменшуємо затримку, покращуємо пропускну здатність і відкриваємо нові можливості для підвищення ефективності».
Технологія d-Matrix використовує пам'ять LPDDR5 з цифровим апаратним забезпеченням для обчислень у пам'яті (DIMC), підключеним до пам'яті через інтерпозер. Механізм DIMC використовує модифіковані комірки SRAM, доповнені транзисторами для виконання множення, щоб виконувати обчислення в самому масиві пам'яті. Він побудований за архітектурою чиплет і оптимізований для множення матриць і векторів, операції, що використовується в моделях на основі трансформаторів. Обчислювальні ядра Apollo містять вісім блоків DIMC, які паралельно виконують множення матриць 64×64, підтримуючи різні числові формати (наприклад, INT8, INT4 і блокову точку, що плаває).
Бходжа написав у блозі: «Ми впроваджуємо в наш план найсучаснішу реалізацію 3D-накопичувального цифрового обчислення в пам'яті, 3DIMC. Наш перший кремній з підтримкою 3DIMC, d-Matrix Pavehawk, який розроблявся понад 2 роки, зараз працює в наших лабораторіях. Ми очікуємо, що 3DIMC збільшить пропускну здатність і місткість пам'яті для робочих навантажень штучного інтелекту на порядки та забезпечить, що з появою нових моделей і додатків постачальники послуг і підприємства зможуть ефективно і недорого запускати їх у великих масштабах».
«Наша архітектура нового покоління, Raptor, буде включати 3DIMC у свій дизайн, використовуючи досвід, який ми та наші клієнти отримали під час тестування Pavehawk. Завдяки вертикальному укладанню пам'яті та тісній інтеграції з обчислювальними чипсетами, Raptor обіцяє прорвати межу пам'яті та відкрити абсолютно нові рівні продуктивності та TCO».
«Ми прагнемо досягти в 10 разів кращої пропускної здатності пам'яті та в 10 разів кращої енергоефективності при виконанні завдань штучного інтелекту з використанням 3DIMC замість HBM4. Це не поступові досягнення, а стрибкоподібні поліпшення, які переосмислюють можливості масштабного штучного інтелекту», - зазначив він.
Примітно, d-Matrix пройшла два раунди фінансування. У 2022 році в рамках раунду A було зібрано 44 млн дол., а у 2023 році в рамках раунду B — 110 млн дол., що в сумі становить 154 млн дол. Компанія має партнерські відносини з постачальником серверних компонентів GigaIO.
Потреби в обробці величезного обсягу даних на високих швидкостях стали ще більш відчутними з поширенням великих мовних моделей для платформ AI. Відповіддю на цей виклик стала розробка Kioxia – модуль флешпам'яті об'ємом 5 ТБ з підтримкою швидкості обміну 64 ГБ/с.
Це досягнення було зроблено в рамках «Проєкту досліджень і розробок з удосконалення інфраструктури інформаційно-комунікаційних систем після 5G (JPNP20017)», замовленого Організацією з розвитку нових енергетичних та промислових технологій (NEDO), національним агентством Японії з досліджень і розробок.
Щоб розв'язати проблему компромісу між місткістю та пропускною здатністю, яка була викликом для традиційних модулів пам'яті на базі DRAM, Kioxia розробила нову конфігурацію модуля, використовуючи послідовне з'єднання з флешпам'яттю. Також була розроблена технологія високошвидкісного приймача, що забезпечує пропускну здатність 128 Гбіт/с, а також технології для підвищення продуктивності флешпам'яті. Ці інновації були застосовані як до контролерів пам'яті, так і до модулів пам'яті.
Практичне застосування цього модуля пам'яті, як очікується, прискорить цифрову трансформацію, уможлививши впровадження Інтернету речей (IoT), аналізу великих даних та передової обробки штучного інтелекту в серверах Mobile Edge Computing (MEC) після 5G/6G та інших додатках.
В епоху після 5G/6G бездротові мережі, як очікується, досягнуть вищих швидкостей, меншої затримки та можливості одночасного підключення більшої кількості пристроїв. Однак передача даних на віддалені хмарні сервери для обробки збільшує затримку в усій мережі, включаючи дротові мережі, що ускладнює роботу додатків у режимі реального часу. З цієї причини існує потреба у широкому впровадженні серверів MEC, які обробляють дані ближче до користувачів, що, як очікується, сприятиме цифровій трансформації в різних галузях. Крім того, в останні роки зростає попит на передові AI-додатки, такі як генеративний штучний інтелект. Поряд із підвищенням продуктивності серверів MEC, модулі пам'яті також повинні мати ще більшу місткість і пропускну здатність.
На цьому тлі компанія Kioxia зосередилася на підвищенні місткості та пропускної здатності модулів пам'яті з використанням флешпам'яті для цього проєкту. Компанія успішно розробила прототип модуля пам'яті місткістю 5 ТБ і пропускною здатністю 64 ГБ/с, а також перевірила його працездатність.
Для досягнення великої місткості та високої пропускної здатності модулів пам'яті Kioxia застосувала послідовне з'єднання з контролерами, підключеними до кожної плати пам'яті, замість шинного з'єднання. В результаті пропускна здатність не погіршується навіть при збільшенні кількості флешпам'яті, і досягається велика місткість, що перевищує традиційні межі.
Для зменшення кількості з'єднань між контролерами пам'яті замість паралельної передачі даних застосовується високошвидкісна диференціальна послідовна передача даних, а для досягнення вищої пропускної здатності 128 Гбіт/с при низькому енергоспоживанні використовується PAM4 (4-рівнева амплітудна модуляція імпульсів).
Щоб скоротити затримку читання флешпам'яті в модулях пам'яті, компанія Kioxia розробила технологію попереднього вивантаження флешпам'яті, яка мінімізує затримку шляхом попереднього вивантаження даних під час послідовного доступу, і впровадила її в контролер. Крім того, пропускна здатність пам'яті була збільшена до 4,0 Гбіт/с внаслідок застосування сигналізації з низькою амплітудою та технології корекції/придушення спотворень в інтерфейсі між контролером пам'яті та флешпам'яттю.
Завдяки впровадженню високошвидкісних трансиверів PAM4 128 Гбіт/с з низьким енергоспоживанням та технологій, що підвищують продуктивність флешпам'яті, Kioxia створила прототип контролера пам'яті та модуля пам'яті, який використовує PCIe 6.0 (64 Гбіт/с, 8 ліній) як інтерфейс хоста до сервера. Прототип модуля пам'яті продемонстрував, що місткість 5 ТБ і пропускна здатність 64 ГБ/с можуть бути реалізовані при споживанні енергії менше ніж 40 Вт.
На додаток до IoT, аналізу великих даних і передової обробки AI на периферії, Kioxia просуває ранню комерціалізацію і практичне впровадження результатів цього дослідження, використовуючи нові ринкові тенденції, такі як генеративний AI.
Інновації завжди потребували інфраструктури, що дозволяла їм масштабуватися. Колись це були залізниці для парових двигунів, а сьогодні — колосальна фізична основа для штучного інтелекту (AI). Згідно з дослідженням Brookfield, це створює інвестиційну можливість вартістю понад 7 трильйонів доларів протягом наступного десятиліття, оскільки AI-автоматизація має потенціал додати понад 10 трлн дол. до річної світової економічної продуктивності, роблячи його найвпливовішою технологією в історії.
Звіт Brookfield спростовує скептицизм щодо того, що ефективніші AI-моделі можуть зменшити потребу в інфраструктурі. Це явище відоме як Парадокс Джевонса, згідно з яким підвищення ефективності використання ресурсу призводить до більшого його споживання. У звіті наведено історичний приклад: за останні 70 років реальна ціна електроенергії в США впала приблизно на 65%, тоді як загальне споживання зросло у 15 разів, що призвело до 5-кратного розширення світового ринку електроенергії до 3 трлн дол. Подібна динаміка спостерігається і в AI — за останні 18 місяців вартість обчислень для розробників, яку стягувала OpenAI, впала на 99%, що стрімко стимулює попит. Попит також посилюється тим, що AI став стратегічним суверенним пріоритетом. Уряди по всьому світу, від США до країн Європи, розглядають його як питання національної безпеки та економічної незалежності. Це призвело до значних державних інвестицій та партнерств з приватним капіталом. Приклади включають ініціативу InvestAI, що має мобілізувати до 200 млрд євро інвестицій, у тому числі на будівництво чотирьох «AI-гігафабрик» у Європі, кожна з яких вміщатиме до 100 тис. високопродуктивних AI-чипів, партнерство Brookfield з урядом Франції на 20 млрд євро, а також співпрацю зі Швецією з інвестиціями в 10 млрд дол. Згідно з дослідженням, потенційні інвестиції в AI-інфраструктуру розподіляються між чотирма основними напрямками.
Перший — це AI-фабрики, на які припадає 2 трлн дол. Це сучасні, надщільні дата-центри, що використовують передові системи рідинного охолодження, і їхня потужність, як очікується, зросте більш ніж у 10 разів до 2034 року, досягнувши 82 ГВт. Другий напрямок — обчислювальна інфраструктура з бюджетом у 4 трлн дол. Ядром цієї інфраструктури є GPU. За останні 10 років їхня продуктивність зросла у 1000 разів, випередивши закон Мура. За прогнозами, кількість встановлених GPU зросте у 7 разів — до 45 млн одиниць до 2034 року. Третій напрямок — енергетика та передача, що потребуватиме 0,5 трлн дол. Це одне з найбільших «вузьких місць», оскільки AI-чипи є у 10 разів більш енергомісткими, ніж звичайні сервери. І, нарешті, ще 0,5 трлн дол. буде інвестовано в стратегічні суміжні сектори та партнерства, такі як оптоволоконні мережі, системи охолодження та виробництво мікросхем.
Попри величезні можливості, Brookfield також зазначає ризики та виклики. Головним з них є обмеження електромереж та тривалі терміни підключення. Іншою проблемою є технологічне застарівання, оскільки AI-чипи та їхні архітектури швидко еволюціонують, що вимагає від операторів AI-хабів створювати модульні проєкти, що легко модернізуються. Нарешті, Brookfield зауважує, що 75% майбутнього попиту на обчислення припадатиме на інференс (застосування, а не навчання моделей), що також вимагатиме адаптації інфраструктури.