Минулими днями світ ІТ-інфраструктури отримав гучне нагадування: навіть технологічні гіганти, які здаються непохитними, не застраховані від фатальних помилок. Amazon Web Services (AWS) визнала, що масштабний збій, який вивів з ладу частину Інтернету на кілька днів, був спричинений конфліктом у системі автоматизації DNS (Domain Name System). Проблема торкнулася величезної кількості сервісів — від сайтів і хмарних застосунків до онлайн-ігор і «розумних» пристроїв.
Почалося все з того, що конфігурація DNS для бази даних Amazon DynamoDB у регіоні us-east-1 була пошкоджена й опублікована через сервіс Amazon Route 53. Це запустило ефект доміно: сервіси, які залежали від DynamoDB, перестали працювати, а нові екземпляри в Amazon EC2 не могли створюватись. Черги запитів почали накопичуватись, і навіть внутрішні системи AWS відчули наслідки. Ключова технічна причина — класична race condition: два компоненти — «DNS Planner» і «DNS Enactors» — одночасно обробляли оновлення. Один із них почав виконувати старий «план» змін, тоді як інший вже перейшов до нового. У результаті система отримала суперечливий стан: старі записи були застосовані поверх нових, а в деяких випадках DNS-таблиці опинились у стані «порожніх записів». Саме це й призвело до того, що частина хмарної інфраструктури «осліпла», не розуміючи, куди спрямовувати трафік.
AWS підкреслила, що автоматизовані системи — це необхідність для управління мільйонами ресурсів, але вони потребують надзвичайно ретельного проєктування. Цей випадок став ілюстрацією того, що навіть найкраща автоматизація може накопичувати технічний борг. Помилка в одній підсистемі здатна перетворитись на каскадну кризу, якщо не передбачені захисні механізми. Ситуація також показала межі масштабування: коли один ключовий елемент хмарної архітектури падає, ланцюгова реакція охоплює десятки інших сервісів. Балансувальники навантаження почали позначати робочі ноди як «мертві» через некоректні DNS-відповіді, що лише поглиблювало колапс. AWS заявила, що основний збій тривав близько трьох годин — із 19 жовтня 23:48 до 20 жовтня 02:40 — однак наслідки користувачі відчували ще протягом декількох днів.
Аналіз The Register виявив більше нюансів. По-перше, збій не мав жодного стосунку до АІ: автоматизація, яка керує хмарними системами, — це далеко не «штучний інтелект» у сенсі популярних уявлень. Автор підкреслив, що сценарій «це через АІ» — це міф. По-друге, ідея про те, що «багато-хмарність» (multi-cloud) є панацеєю на всі випадки відмови — теж міф. Переходячи до ще однієї платформи, організації часто отримують не другу точку відмови, а ще одну повноцінну точку провалу, що дає багато більше складнощів, ніж резерв. Третє: проблема «довгого хвоста» (long tail) — тобто, що якщо все ще не працює через тиждень-два, це вже не наслідок тієї аварії. Як зазначено: «Якщо ви досі маєте проблеми через тиждень — це не про цей інцидент».
Для українського ІТ-середовища ця історія має особливу вагу. Вона нагадує, що навіть найпотужніша «хмара» не може гарантувати абсолютної стабільності. Компаніям варто враховувати, що навіть глобальний провайдер хмари може упасти, і тому потрібно мати власні сценарії відмовостійкості. Важливо розділяти критичні елементи архітектури, проєктувати резервні канали доступу та регулярно перевіряти сценарії аварійного відновлення. Крім того, моніторинг і «health checks» мають бути гнучкими: якщо система автоматично виводить вузли з балансу лише через те, що не може коректно прочитати DNS-записи — це сигнал про слабкість самої архітектури. Гнучкі механізми ручного втручання мають бути обов’язковими у будь-якому середовищі, де від доступності залежить бізнес.
І нарешті, цей випадок ще раз доводить, що фраза «це просто DNS» часто означає набагато більше. Один незначний збій у фоновому процесі може перетворитися на глобальну кризу. У світі, де «хмара» означає тисячі взаємопов’язаних компонентів, ключовими стають не лише масштаб і швидкість автоматизації, а й уважність до деталей, ретельне тестування й готовність до непередбачуваного.
Поки більшість користувачів лише починає освоювати Wi-Fi 7, але галузь уже готується до впровадження наступного покоління — Wi-Fi 8 (IEEE 802.11bn), або, за термінологією розробників, Ultra High Reliability (UHR). Новий стандарт обіцяє не просто вищу швидкість, а насамперед якісно інший рівень стабільності та ефективності мережевого обміну.
На відміну від попередніх ітерацій, головний акцент Wi-Fi 8 зміщується з гігабітних піків на надійність у реальних умовах. Йдеться про мінімізацію втрат пакетів, покращення роботи при слабкому сигналі, зниження латентності та стабільність у сценаріях з високим навантаженням або великою щільністю точок доступу. За концепцією розробників IEEE, це має стати платформою для стабільного функціонування промислових IoT-середовищ, корпоративних WLAN і розумних міст.
Днями з'явилася новина, що компанія TP-Link першою офіційно підтвердила успішне проведення випробувань прототипу Wi-Fi 8. Повідомляється, що під час тестів були перевірені передача маякових сигналів (beacon) та реальний канал даних. За результатами, система продемонструвала стабільну роботу без втрат у типових сценаріях мережевого навантаження, що підтверджує працездатність базових механізмів нового стандарту.
Хоча TP-Link не розкриває конкретні технічні деталі обладнання, відомо, що проєкт реалізується у партнерстві з виробниками чипсетів — Qualcomm, Broadcom, Intel, MediaTek та іншими. Це свідчить про початок міжгалузевої координації, необхідної для формування повноцінної екосистеми Wi-Fi 8.
Згідно з попередніми технічними даними, теоретичні межі пропускної здатності залишаються на рівні Wi-Fi 7 — до 46 Гбіт/с. Проте інженери TP-Link оцінюють приріст ефективної швидкості в реальних умовах до 25 %, що досягається завдяки новим механізмам керування спектром і підвищеній стійкості до втрат пакетів.
Wi-Fi 8 не пропонує радикально нових діапазонів частот — робота все так само відбувається у смугах 2,4 ГГц, 5 ГГц і 6 ГГц. Проте основні зміни у способі використання спектра. Новий стандарт передбачає більш глибоку координацію між точками доступу через механізми Coordinated Spatial Reuse (Co-SR) та Coordinated Beamforming (Co-BF). Це дозволяє уникати колізій у багатоклітинних сценаріях, підвищуючи ефективність використання ефірного часу.
Ще одним ключовим напрямом розвитку є Dynamic Sub-Channel Operation (DSO) — динамічне призначення субканалів відповідно до поточного рівня завад і завантаження спектра. Такий підхід зменшує простої в передачі, забезпечуючи до 80% приросту ефективності в щільних середовищах.
Wi-Fi 8 також розвиває концепцію багатолінкових операцій, започатковану у Wi-Fi 7, і вдосконалює алгоритми формування променів. Це дозволяє не тільки підвищити швидкість доступу, а й забезпечити кращу синхронізацію між клієнтами, що переміщуються, наприклад у корпоративних кампусах або промислових цехах із великою кількістю точок доступу.
Wi-Fi 6 (802.11ax) був зосереджений на ефективності при багатьох клієнтах завдяки OFDMA та MU-MIMO, знизив латентність і зробив бездротові мережі придатними для корпоративних сценаріїв. Розробники Wi-Fi 7 (802.11be) сфокусувалися на мультиканальній роботі, подвоєнні ширини каналу до 320 МГц і підвищенні модуляції до 4096-QAM, що дозволило досягати пікових швидкостей понад 40 Гбіт/с.
Wi-Fi 8 розвиває ці напрацювання, але з іншим фокусом — надійність замість пікової швидкості. З технічного погляду, його завдання — зробити бездротові мережі більш передбачуваними у складних середовищах, де зараз навіть Wi-Fi 7 не завжди демонструє стабільність. Це має критичне значення для промислових систем, доповненої реальності, автономного транспорту та сценаріїв з високою чутливістю до затримок.
Станом на цей момент жоден із великих вендорів не представив комерційних пристроїв із підтримкою Wi-Fi 8. TP-Link продемонструвала лише тестовий зразок, який використовував експериментальні радіомодулі. Сертифікація стандарту в рамках WiFi Alliance очікується орієнтовно у 2028 році, після чого можна очікувати появу перших готових продуктів.
У проміжку між Wi-Fi 7 і Wi-Fi 8 виробники продовжать оптимізувати рішення для корпоративного сегмента. Зокрема, мультиканальні точки доступу, побудовані на архітектурі Wi-Fi 7, уже частково реалізують механізми, схожі на Co-SR і DSO. Тому можна очікувати, що перші комерційні реалізації Wi-Fi 8 стануть еволюційним розвитком нинішніх high-end платформ.
Якщо Wi-Fi 6 зробив бездротові мережі масштабованими, а Wi-Fi 7 — надшвидкими, то Wi-Fi 8 має зробити їх передбачуваними. Це — перехід від гонитви за піковими мегабітами до створення стабільної та керованої бездротової інфраструктури, здатної підтримувати критично важливі сервіси.
Корпорація TDK спільно з Університетом Хоккайдо розробила прототип резервуарного чіпа штучного інтелекту, використовуючи аналогову електронну схему, що імітує мозочок.
Обчислення на основі резервуарних нейронних мереж (Reservoir computing) — це обчислювальна модель, здатна обробляти прості часово-змінні дані та часові ряди, виконувати завдання з низьким енергоспоживанням і високою швидкістю. Концепція, яка контрастує з резервуарними нейронними мережами, — це модель глибокого навчання. З розвитком AI та використанням великих даних в останні роки стали очевидними проблеми обчислювальної обробки величезних обсягів даних і зростання енергоспоживання, а швидке поширення генеративного AI зробило обробку AI все більш залежною від хмари. Традиційні моделі глибокого навчання складаються з вхідного шару, прихованого шару та вихідного шару. Вхідний шар спочатку отримує інформацію, а прихований шар виконує величезну кількість обчислень. Фінальний вихідний шар показує результати навчання. Чим більше прихованих шарів, тим складніші обчислення (близько трильйонів) можна виконати. Однак це призводить до масової обробки даних, що спричиняє збільшення енергоспоживання та затримки.
З іншого боку, резервуарні нейронні мережі складаються з «вхідного шару», «резервуарного шару» та «вихідного шару». Резервуарний шар не обов’язково вимагає обчислень і використовує природні явища, які поширюються з часом. Наприклад, у вхідному шарі як вхідне значення використовується природне явище множинних хвиль на поверхні води. Наступний резервуарний шар надсилає результати поширення поверхневих хвиль та їх взаємної інтерференції до вихідного шару. Останній вихідний шар правильно зчитує стан резервуарного шару та виводить характеристики того, як рухалися хвилі на поверхні води. У резервуарному шарі результати природних явищ надсилаються без необхідності обчислень, тому кількість параметрів, які потрібно коригувати під час навчання, значно зменшується, і завдання можуть оброблятися з низьким енергоспоживанням і на високій швидкості. Тому очікується, що аналоговий резервуарний AI буде використовуватися в завданнях, які вимагають обробки інформації, адаптованої до індивідуальних ситуацій на периферійних пристроях, таких як роботи та людино-машинні інтерфейси, які вимагають високошвидкісної обробки без необхідності широкомасштабних обчислень. Традиційно вважалося, що пристрої резервуарних нейронних мереж важко впровадити в практичне використання. Це пов’язано з тим, що резервуарні нейронні мережі — це не універсальний AI, як глибокі нейронні мережі, а AI, який спеціалізується на обробці даних часових рядів. Крім того, було важко отримати переваги низького енергоспоживання, коли пристрої резервуарних нейронних мереж реалізовувалися в цифрових обчисленнях, і не було конкретних пристроїв резервуарних нейронних мереж, які використовували б фізичні явища для врахування енергоспоживання та високошвидкісних операцій.
Демонстраційний пристрій, який буде виставлений на CEATEC 2025 в Японії, покаже, що користувачі ніколи не зможуть виграти в «камінь-ножиці-папір», що стало можливим завдяки резервуарним нейронним мережам. Цей демонстраційний пристрій визначає жест руки користувача для «камінь-ножиці-папір», поки його пальці ще рухаються, і швидко показує виграшний жест наперед. У грі «камінь-ножиці-папір» є індивідуальні відмінності в русі пальців, і для точного визначення того, що робити далі, необхідно вивчити ці індивідуальні відмінності в реальному часі. Цей демонстраційний пристрій прикріплюється до рук користувачів, рух пальців вимірюється акселерометром, а просте завдання вирішення того, що грати в «камінь-ножиці-папір», обробляється в реальному часі та на високій швидкості на аналоговому резервуарному AI-чипі, що дозволяє користувачам усвідомити «камінь-ножиці-папір, у якому неможливо виграти». Демонструючи один варіант використання за допомогою прототипу чипа, розробленого в цьому проєкті, TDK сподівається сприяти ширшому розумінню резервуарних нейронних мереж і очікує, що це призведе до прискореної комерціалізації пристроїв резервуарних нейронних мереж для периферійних AI-застосувань на ринку.
Нагадаємо, TDK анонсувала нейроморфні пристрої, які імітують великий мозок, використовуючи спінтроніку у 2024 році, як пропозицію для розв'язання соціальних проблем. Цього разу компанія представить резервуарні нейронні мережі, які імітують мозочок з використанням різних фізичних явищ, таких як аналогові схеми, датчики та електронні компоненти. Нейроморфні пристрої виконують складні обчислення з низьким енергоспоживанням, тоді як пристрої резервуарних нейронних мереж спеціалізуються на часово-змінній інформації, такій як «камінь-ножиці-папір», і досягають низького енергоспоживання та швидких обчислень в ультранизькопотужних продуктах, таких як периферійні пристрої, які безпосередньо обробляють дані датчиків. У майбутньому TDK продовжить дослідження резервуарних нейронних мереж у співпраці з Університетом Хоккайдо та сприятиме розвитку «ринку екосистем AI», співпрацюючи з підрозділом Sensor Systems Business Company та TDK SensEI, який розробляє рішення для датчиків у периферійній області.
Компанія Microsoft представила Fairwater – свій найновіший американський центр обробки даних для AI, найбільшу і найсучаснішу AI-фабрику. Тож розберемось, що відрізняє її від звичайного дата-центру.
Слід зазначити, що на додаток до центру обробки даних Fairwater у Вісконсині Microsoft також будує кілька центрів, ідентичних Fairwater, в інших місцях по всій території США. Крім того, у Нарвіку, Норвегія, Компанія оголосила про плани з nScale та Aker JV щодо розробки нового гіпермасштабного центру обробки даних для AI. А у Лафтоні, Велика Британія, вона оголосила про партнерство з nScale для будівництва найбільшого в країні суперкомп'ютера для підтримки послуг у Великій Британії.
Ці центри обробки даних для AI є значними капітальними проєктами, що становлять десятки мільярдів доларів інвестицій і сотні тисяч передових AI-чипів, і будуть безперешкодно з'єднані з глобальною хмарою Microsoft Cloud, що налічує понад 400 дата-центрів у 70 регіонах по всьому світу. Завдяки інноваціям, які дозволяють об'єднати ці центри обробки даних у розподілену мережу, експоненційно множиться ефективність і обчислювальна потужність, щоб ще більше демократизувати доступ до послуг AI в усьому світі.
Отже, що таке центр обробки даних для AI? Це унікальний, спеціально побудований об'єкт, розроблений для навчання AI, а також для запуску великомасштабних моделей і додатків штучного інтелекту. Центри обробки даних для AI Microsoft забезпечують роботу OpenAI, Microsoft AI, наших можливостей Copilot та багатьох інших провідних робочих AI-навантажень.
Новий центр обробки даних для AI Fairwater у Вісконсині є видатним інженерним досягненням, що займає 315 акрів і складається з трьох масивних будівель загальною площею 1,2 млн квадратних футів. Для будівництва цього об'єкта знадобилося 46,6 милі глибоких фундаментних паль, 26,5 млн фунтів конструкційної сталі, 120 миль середньовольтних підземних кабелів і 72,6 милі механічних трубопроводів.
На відміну від типових хмарних центрів обробки даних, які оптимізовані для виконання багатьох менших, незалежних робочих навантажень, таких як розміщення вебсайтів, електронної пошти або бізнес-додатків, цей центр побудований для роботи як один масивний AI-суперкомп'ютер, що використовує єдину плоску мережу, яка з'єднує сотні тисяч новітніх графічних процесорів NVIDIA. Насправді він забезпечить у 10 разів більшу продуктивність, ніж найшвидший суперкомп'ютер у світі сьогодні, що дозволить виконувати робочі навантаження з навчання та висновків AI на рівні, якого ніколи раніше не бачили.
Ефективні AI-моделі покладаються на тисячі комп'ютерів, що працюють разом, оснащених графічними процесорами або спеціалізованими AI-прискорювачами, для обробки масивних паралельних математичних обчислень. Вони з'єднані надзвичайно швидкими мережами, щоб миттєво обмінюватися результатами, і все це підтримується величезними системами зберігання, які зберігають дані (такі як текст, зображення або відео), розбиті на токени — невеликі одиниці інформації, з яких навчається AI. Мета полягає в тому, щоб ці чипи були постійно зайняті, тому що якщо дані або мережа не можуть встигати, все сповільнюється.
Саме навчання AI — це цикл: AI обробляє токени послідовно, робить прогнози щодо наступного, звіряє їх з правильними відповідями та коригує себе. Це повторюється трильйони разів, поки система не стане краще виконувати те, для чого її навчають. Подумайте про це як про тренування професійної футбольної команди. Кожен графічний процесор — це гравець, який виконує вправу, токени — це розіграші, що виконуються крок за кроком, а мережа — це тренерський штаб, який вигукує інструкції та підтримує всіх у синхронізації. Команда повторює розіграші знову і знову, виправляючи помилки, поки не зможе виконати їх ідеально. Зрештою, AI-модель, як і команда, освоює свою стратегію і готова працювати в реальних ігрових умовах.
Спеціально побудована інфраструктура має вирішальне значення для ефективного забезпечення роботи AI. Щоб обчислити математику токенів у цьому масштабі з трильйоном параметрів провідних AI-моделей, ядро центру обробки даних AI складається з виділених AI-прискорювачів (таких як графічні процесори), встановлених на серверних платах поруч з центральними процесорами, пам'яттю та сховищем. Один сервер містить кілька прискорювачів графічних процесорів, з'єднаних для високошвидкісного зв'язку. Потім ці сервери встановлюються в стійку, з комутаторами (ToR), що забезпечують мережеве підключення з низькою затримкою між ними. Кожна стійка в центрі обробки даних з'єднана між собою, створюючи тісно пов'язаний кластер. Ззовні ця архітектура виглядає як багато незалежних серверів, але в масштабі вона функціонує як єдиний суперкомп'ютер, де сотні тисяч прискорювачів можуть навчати одну модель паралельно.
Цей центр обробки даних використовує єдиний, масивний кластер взаємопов'язаних серверів NVIDIA GB200 і мільйонів обчислювальних ядер та екзабайтів сховища, всі вони розроблені для найвимогливіших робочих AI-навантажень. Azure був першим хмарним провайдером, який запустив сервери NVIDIA GB200, стійки та повні кластери центрів обробки даних. Кожна стійка містить 72 графічних процесори NVIDIA Blackwell, з'єднані в єдиний домен NVLink, який забезпечує пропускну здатність 1,8 ТБ між графічними процесорами та надає кожному графічному процесору доступ до 14 ТБ об'єднаної пам'яті. Замість того щоб поводитися як десятки окремих чипів, стійка працює як єдиний, гігантський прискорювач, здатний обробляти 865000 токенів на секунду, що є найвищою пропускною здатністю серед усіх хмарних платформ, доступних сьогодні. Центри обробки даних AI в Норвегії та Великій Британії використовуватимуть подібні кластери та скористаються перевагами наступної розробки AI-чипів від NVIDIA (GB300), яка пропонує ще більше об'єднаної пам'яті на стійку.
Викликом при створенні масштабу суперкомп'ютера, особливо в міру того, як вимоги до навчання AI продовжують вимагати проривних масштабів обчислень, є правильне налаштування мережевої топології. Щоб забезпечити зв'язок з низькою затримкою на кількох рівнях у хмарному середовищі, Microsoft потрібно було розширити продуктивність за межі однієї стійки. Для найновіших розгортань NVIDIA GB200 і GB300 у всьому світі на рівні стійки ці графічні процесори спілкуються через NVLink і NVSwitch зі швидкістю терабайтів на секунду, усуваючи обмеження пам'яті та пропускної здатності. Потім, щоб з'єднати кілька стійок в одну групу, Azure використовує як InfiniBand, так і Ethernet, які забезпечують 800 Гбіт/с, у повній неблокуючій архітектурі, щоб гарантувати, що кожен графічний процесор може спілкуватися з будь-яким іншим графічним процесором на повній швидкості без заторів. А по всьому центру обробки даних кілька груп стійок з'єднані між собою, щоб зменшити кількість переходів і дозволити десяткам тисяч графічних процесорів функціонувати як єдиний суперкомп'ютер глобального масштабу.
При розміщенні в традиційному коридорі центру обробки даних, фізична відстань між стійками створює затримку в системі. Щоб розв'язати цю проблему, стійки в центрі обробки даних AI у Вісконсині розташовані у двоповерховій конфігурації, тому, крім мережевого з'єднання стійок з сусідніми стійками, вони також з'єднані з додатковими стійками над або під ними.
Цей багатошаровий підхід виділяє Azure. Microsoft Azure не тільки була першою хмарою, яка запустила GB200 в масштабі стійки та дата-центру; Microsoft робить це в масовому масштабі з клієнтами сьогодні. Завдяки спільній розробці повного стека з найкращими рішеннями від галузевих партнерів у поєднанні з власними спеціально побудованими системами, Microsoft створила найпотужніший, тісно пов'язаний суперкомп'ютер AI у світі, спеціально побудований для передових моделей.
Традиційне повітряне охолодження не може впоратися зі щільністю сучасного обладнання AI. Центри обробки даних Microsoft використовують передові системи рідинного охолодження — вбудовані труби циркулюють холодну рідину безпосередньо в сервери, ефективно відводячи тепло. Рециркуляція із замкнутим циклом забезпечує нульові втрати води: вода потрібна лише для одноразового заповнення, а потім постійно використовується повторно.
Спеціально проєктуючи центри обробки даних для AI, Microsoft змогла вбудувати інфраструктуру рідинного охолодження безпосередньо в об'єкт, щоб отримати більшу щільність стійок у дата-центрі. Fairwater підтримується другою за величиною у світі водоохолоджувальною чилерною установкою, яка буде безперервно циркулювати воду у своїй системі охолодження із замкнутим циклом. Потім гаряча вода відводиться до охолоджувальних «ребер» з кожного боку центру обробки даних, де 172 20-футові вентилятори охолоджують і повертають воду назад до центру обробки даних. Ця система підтримує ефективну роботу центру обробки даних AI, навіть при пікових навантаженнях.
Понад 90% потужностей центрів обробки даних Microsoft використовують цю систему, що вимагає води лише один раз під час будівництва та постійно використовує її повторно без втрат на випаровування. Решта 10% традиційних серверів використовують зовнішнє повітря для охолодження, переходячи на воду лише в найспекотніші дні — конструкція, яка значно зменшує використання води порівняно з традиційними дата-центрами.
Microsoft також використовує рідинне охолодження для підтримки робочих навантажень AI в багатьох власних наявних центрах обробки даних; це рідинне охолодження здійснюється за допомогою блоків теплообмінників (HXU), які також працюють з нульовим використанням води.
Сучасні центри обробки даних можуть містити екзабайти сховища та мільйони обчислювальних ядер CPU. Для підтримки кластера інфраструктури AI потрібна абсолютно окрема інфраструктура дата-центру для зберігання та обробки даних, що використовуються та генеруються кластером AI. Щоб навести приклад масштабу — системи зберігання центру обробки даних AI у Вісконсині мають довжину п'ять футбольних полів.
Було перероблено сховище Azure для найвимогливіших робочих навантажень AI, у масштабах цих масивних розгортань центрів обробки даних для справжнього суперкомп'ютерного масштабу. Кожен обліковий запис Azure Blob Storage може підтримувати понад 2 млн операцій читання/запису на секунду, а завдяки мільйонам доступних облікових записів можна еластично масштабуватися, щоб задовольнити практично будь-які вимоги до даних.
За цією можливістю стоїть фундаментально перероблена основа сховища, яка об'єднує місткість і пропускну здатність тисяч вузлів зберігання та сотень тисяч дисків. Це забезпечує масштабування сховища до екзабайтного масштабу, усуваючи необхідність ручного сегментування та спрощуючи операції навіть для найбільших робочих навантажень AI та аналітики.
Ключові інновації, такі як BlobFuse2, забезпечують високу пропускну здатність і доступ з низькою затримкою для локального навчання вузлів графічних процесорів, гарантуючи, що обчислювальні ресурси ніколи не простоюють і що масивні набори даних для навчання AI завжди доступні, коли це потрібно. Підтримка декількох протоколів дозволяє безперебійну інтеграцію з різноманітними конвеєрами даних, тоді як глибока інтеграція з аналітичними механізмами та інструментами AI прискорює підготовку та розгортання даних.
Автоматичне масштабування динамічно розподіляє ресурси в міру зростання попиту, у поєднанні з розширеною безпекою, стійкістю та економічно ефективним багаторівневим сховищем, платформа сховища Azure задає темп для робочих навантажень наступного покоління, забезпечуючи необхідну продуктивність, масштабованість і надійність.
Нові центри обробки даних для AI є частиною глобальної мережі центрів обробки даних Azure AI, з'єднаних через глобальну мережу (WAN). Йдеться не про одну будівлю, а про розподілену, відмовостійку та масштабовану систему, яка функціонує як єдина, потужна машина AI. AI WAN компанії створена з можливостями зростання в масштабах пропускної здатності, характерних для AI, щоб забезпечити широкомасштабне розподілене навчання в кількох, географічно різнорідних регіонах Azure, що дозволяє клієнтам використовувати потужність гігантського суперкомп'ютера AI.
Це фундаментальний зсув у нашому мисленні про суперкомп'ютери AI. Замість того щоб бути обмеженими стінами одного об'єкта, будується розподілена система, де обчислювальні ресурси, сховище та мережеві ресурси безперебійно об'єднуються та оркеструються в регіонах центрів обробки даних. Це означає більшу відмовостійкість, масштабованість і гнучкість для клієнтів.
Щоб задовольнити критичні потреби найбільших викликів AI, було потрібно переробити кожен шар інфраструктури хмарного стека. Йдеться не просто про ізольовані прориви, а про поєднання кількох нових підходів у сферах чипів, серверів, мереж і центрів обробки даних, що призводить до досягнень, де програмне та апаратне забезпечення оптимізуються як одна спеціально побудована система.
Центр обробки даних Microsoft у Вісконсині відіграватиме критично важливу роль у майбутньому AI, побудованому на реальних технологіях, реальних інвестиціях і реальному впливі на суспільство. Коли цей об'єкт буде з'єднано з іншими регіональними центрами обробки даних, і коли кожен шар інфраструктури Microsoft буде узгоджений як повна система, відкриється нова ера інтелекту, що працює на хмарі, безпечну, адаптивну та готову до того, що буде далі.
Електронні дисплеї цінуються за їхню читабельність і низьке енергоспоживання, але їх давно відкинули як занадто повільні для повсякденного використання. Однак стартап Modos вважає, що вирішив частину цієї проблеми за допомогою набору для розробки, здатного керувати електронним дисплеєм із частотою оновлення до рекордних 75 герців.
Modos Paper Monitor і Dev Kit, які зараз доступні для краудфандингу на Crowd Supply, поєднують стандартні панелі електронного паперу з відкритим кодом дисплейного контролера на базі FPGA. Хоча набір надає ентузіастам і розробникам повний пакет (з дисплеєм електронного паперу, драйвером дисплея та апаратним адаптером), він також є відправною точкою для експериментів з різними дисплеями електронного паперу.
«Я б сказав, що замість секретного соусу у нас є відкритий соус», — каже співзасновник Modos Олександр Сото (Alexander Soto). «Вам навіть не потрібно використовувати панель, яку ми пропонуємо. Ви можете використовувати іншу панель і все одно отримати [75 Гц]».
Більшість панелей електронного паперу оновлюються з частотою оновлення близько 10 Гц або менше. Деякі дисплеї навіть не вказують частоту оновлення і можуть потребувати до цілої секунди для оновлення.
Краща частота оновлення означає, що дисплей може показувати більше кадрів за секунду, що, своєю чергою, забезпечує більш плавний і реалістичний рух. Сучасне цифрове відео зазвичай передається зі швидкістю 30 або 60 кадрів в секунду, що до недавнього часу було далеко за межами можливостей дисплея з електронним папером. Це область, в якій електронний папір явно відстає від LCD, які починаються з 60 Гц і вище.
Modos здатний досягати частоти оновлення до 75 Гц на 13-дюймовій панелі з електронним папером з роздільною здатністю 1600x1200 пікселів. (Також доступна 6-дюймова панель з електронним папером з роздільною здатністю 1448x1072 пікселів і такою ж частотою оновлення). Збільшення частоти оновлення також зменшує затримку. Це важливий момент, оскільки дозволяє використовувати дисплей з електронним папером у ситуаціях, де затримка має значення, наприклад, у дисплеях комп'ютерів або планшетів.
«Багато людей за замовчуванням вважають, що електронні читалки або електронний папір повільні та будуть постійно блимати», — каже Сото. «Нашим завданням було відвідувати конференції, заходи та демонструвати людям, що електронний папір може бути дуже швидким».
Зазначена Modos частота оновлення 75 Гц є найвищою на сьогодні для дисплеїв з електронним папером, але, мабуть, це не є ключовою інновацією. Декілька конкурентів вже пропонують дисплеї з електронним папером із частотою оновлення до 60 Гц, що, хоч і нижче, але близько до цього показника.
Але Modos має не надто секретну зброю: Caster, контролер дисплея з електронним папером з відкритим кодом, який сумісний з широким спектром панелей з електронним папером. Контролер дисплея, який базується на AMD Spartan-6 FPGA, відрізняється від типових контролерів з електронним папером управлінням дисплеєм на рівні пікселів.
«Традиційно контролер [електронного дисплея] використовував одностановий автомат для управління всією панеллю, маючи лише два стани: статичний і оновлення», — каже співзасновник Modos Вентінг Чжан (Wenting Zhang). «Caster обробляє кожен піксель окремо, а не як цілу панель, що дозволяє локалізувати управління пікселями».
Контролер дисплея FPGA поєднується з Glider Mega Adapter від Modos, який включає чотири різні роз'єми дисплея, сумісні з декількома десятками електронних дисплеїв розміром від 4,3 до 13 дюймів. Сото каже, що адаптер можна використовувати для перероблення дисплеїв, врятованих зі старих електронних читалок, таких як Amazon Kindle.
Modos також надає інтерфейс прикладного програмування (API), написаний мовою програмування C, який дозволяє додаткам динамічно вибирати режими керування дисплеєм. Так менеджер вікон Linux може використовуватися для відображення тексту в бінарному кольоровому режимі з низькою затримкою, відображення карт у більш детальному, але чутливому сірому масштабі та відображення відео з максимальною точністю сірого масштабу — все це одночасно на одному екрані.
Код і схеми для Caster, Glider та API є відкритими та доступні на Github.
Краудфандингова кампанія Modos завершиться 18 вересня. Очікується, що замовлення будуть відправлені в січні 2026 року, хоча (як це часто буває у випадку краудфандингових проєктів) терміни доставлення не гарантуються.
Досягнення цього етапу зайняло кілька років. Спочатку засновники компанії сподівалися створити ноутбук з електронним папером, Modos Paper Laptop, про який було оголошено в січні 2022 року. Однак реалії виробництва електроніки ускладнили цей проєкт на самому початку, і ноутбук так і не був доступний для замовлення.
«Частково це було пов'язано з тим, що основне співвідношення сторін для більшості корпусів [ноутбуків] становить 16:9 і 16:10. А якщо подивитися на дисплеї з електронним папером, то їхнє співвідношення сторін становить 4:3. Тому нам довелося або виготовляти корпус на замовлення, або панель на замовлення, і те, і інше було надто дорогим», — каже Сото.
Постачання панелей також залишається перешкодою. Виробництво електронного паперу орієнтоване на електронні читалки та вивіски, а це означає, що більшість панелей не мають відповідного розміру для комп'ютера. Однак Modos Paper Monitor і Dev Kit знайшли практичний компроміс у нещодавно представлених 13-дюймових дисплеях з електронним папером, багато з яких мають роздільну здатність, схожу на LCD- і OLED-панелі, розроблені для ноутбуків.
Таким чином, Dev Kit є продовженням початкової мети Modos. Хоча створення повноцінного ноутбука з електронним папером було непрактичним, висока частота оновлення, контролер дисплея з відкритим кодом та API Dev Kit дають амбітним користувачам можливість реалізувати власний комп'ютерний дисплей з електронним папером з низькою затримкою — або будь-що інше, що їм заманеться.
Стартап d-Matrix, що розробляє цифрові обчислювальні чіпи з вбудованою пам'яттю, представив нову технологію 3D-пам'яті (3DIMC), яка обіцяє в 10 разів прискорити роботу моделей штучного інтелекту та скоротити енергоспоживання на 90% порівняно з поточним галузевим стандартом HBM4.
Компанія була заснована у 2019 році генеральним директором Сідом Шетом (Sid Sheth) і технічним директором Судіпом Бходжа (Sudeep Bhoja), обома керівниками компанії Inphi, що розробляє високошвидкісні міжмережеві з'єднання, яку у 2020 році за 10 млрд дол. придбала компанія Marvell. Її метою є розробка технології обчислювальних чіпів в оперативній пам'яті, яка забезпечує більший обсяг пам'яті для AI-висновків, ніж традиційна пропускна здатність DRAM, при цьому за значно менших витрат, ніж пам'ять з високою пропускною здатністю (HBM).
Сід Шет опублікував у LinkedIn: «Ми віримо, що майбутнє AI-висновків залежить від переосмислення не тільки обчислень, але й самої пам'яті. Ми прокладаємо шлях для нової парадигми обчислень у пам'яті (3DIMC), яка дозволяє нашій платформі DIMC продовжувати масштабуватися і пробивати межу пам'яті без втрати місткості та пропускної здатності пам'яті. Шляхом тривимірного укладання пам'яті та її більш тісної інтеграції з обчисленнями ми значно зменшуємо затримку, покращуємо пропускну здатність і відкриваємо нові можливості для підвищення ефективності».
Технологія d-Matrix використовує пам'ять LPDDR5 з цифровим апаратним забезпеченням для обчислень у пам'яті (DIMC), підключеним до пам'яті через інтерпозер. Механізм DIMC використовує модифіковані комірки SRAM, доповнені транзисторами для виконання множення, щоб виконувати обчислення в самому масиві пам'яті. Він побудований за архітектурою чиплет і оптимізований для множення матриць і векторів, операції, що використовується в моделях на основі трансформаторів. Обчислювальні ядра Apollo містять вісім блоків DIMC, які паралельно виконують множення матриць 64×64, підтримуючи різні числові формати (наприклад, INT8, INT4 і блокову точку, що плаває).
Бходжа написав у блозі: «Ми впроваджуємо в наш план найсучаснішу реалізацію 3D-накопичувального цифрового обчислення в пам'яті, 3DIMC. Наш перший кремній з підтримкою 3DIMC, d-Matrix Pavehawk, який розроблявся понад 2 роки, зараз працює в наших лабораторіях. Ми очікуємо, що 3DIMC збільшить пропускну здатність і місткість пам'яті для робочих навантажень штучного інтелекту на порядки та забезпечить, що з появою нових моделей і додатків постачальники послуг і підприємства зможуть ефективно і недорого запускати їх у великих масштабах».
«Наша архітектура нового покоління, Raptor, буде включати 3DIMC у свій дизайн, використовуючи досвід, який ми та наші клієнти отримали під час тестування Pavehawk. Завдяки вертикальному укладанню пам'яті та тісній інтеграції з обчислювальними чипсетами, Raptor обіцяє прорвати межу пам'яті та відкрити абсолютно нові рівні продуктивності та TCO».
«Ми прагнемо досягти в 10 разів кращої пропускної здатності пам'яті та в 10 разів кращої енергоефективності при виконанні завдань штучного інтелекту з використанням 3DIMC замість HBM4. Це не поступові досягнення, а стрибкоподібні поліпшення, які переосмислюють можливості масштабного штучного інтелекту», - зазначив він.
Примітно, d-Matrix пройшла два раунди фінансування. У 2022 році в рамках раунду A було зібрано 44 млн дол., а у 2023 році в рамках раунду B — 110 млн дол., що в сумі становить 154 млн дол. Компанія має партнерські відносини з постачальником серверних компонентів GigaIO.
Потреби в обробці величезного обсягу даних на високих швидкостях стали ще більш відчутними з поширенням великих мовних моделей для платформ AI. Відповіддю на цей виклик стала розробка Kioxia – модуль флешпам'яті об'ємом 5 ТБ з підтримкою швидкості обміну 64 ГБ/с.
Це досягнення було зроблено в рамках «Проєкту досліджень і розробок з удосконалення інфраструктури інформаційно-комунікаційних систем після 5G (JPNP20017)», замовленого Організацією з розвитку нових енергетичних та промислових технологій (NEDO), національним агентством Японії з досліджень і розробок.
Щоб розв'язати проблему компромісу між місткістю та пропускною здатністю, яка була викликом для традиційних модулів пам'яті на базі DRAM, Kioxia розробила нову конфігурацію модуля, використовуючи послідовне з'єднання з флешпам'яттю. Також була розроблена технологія високошвидкісного приймача, що забезпечує пропускну здатність 128 Гбіт/с, а також технології для підвищення продуктивності флешпам'яті. Ці інновації були застосовані як до контролерів пам'яті, так і до модулів пам'яті.
Практичне застосування цього модуля пам'яті, як очікується, прискорить цифрову трансформацію, уможлививши впровадження Інтернету речей (IoT), аналізу великих даних та передової обробки штучного інтелекту в серверах Mobile Edge Computing (MEC) після 5G/6G та інших додатках.
В епоху після 5G/6G бездротові мережі, як очікується, досягнуть вищих швидкостей, меншої затримки та можливості одночасного підключення більшої кількості пристроїв. Однак передача даних на віддалені хмарні сервери для обробки збільшує затримку в усій мережі, включаючи дротові мережі, що ускладнює роботу додатків у режимі реального часу. З цієї причини існує потреба у широкому впровадженні серверів MEC, які обробляють дані ближче до користувачів, що, як очікується, сприятиме цифровій трансформації в різних галузях. Крім того, в останні роки зростає попит на передові AI-додатки, такі як генеративний штучний інтелект. Поряд із підвищенням продуктивності серверів MEC, модулі пам'яті також повинні мати ще більшу місткість і пропускну здатність.
На цьому тлі компанія Kioxia зосередилася на підвищенні місткості та пропускної здатності модулів пам'яті з використанням флешпам'яті для цього проєкту. Компанія успішно розробила прототип модуля пам'яті місткістю 5 ТБ і пропускною здатністю 64 ГБ/с, а також перевірила його працездатність.
Для досягнення великої місткості та високої пропускної здатності модулів пам'яті Kioxia застосувала послідовне з'єднання з контролерами, підключеними до кожної плати пам'яті, замість шинного з'єднання. В результаті пропускна здатність не погіршується навіть при збільшенні кількості флешпам'яті, і досягається велика місткість, що перевищує традиційні межі.
Для зменшення кількості з'єднань між контролерами пам'яті замість паралельної передачі даних застосовується високошвидкісна диференціальна послідовна передача даних, а для досягнення вищої пропускної здатності 128 Гбіт/с при низькому енергоспоживанні використовується PAM4 (4-рівнева амплітудна модуляція імпульсів).
Щоб скоротити затримку читання флешпам'яті в модулях пам'яті, компанія Kioxia розробила технологію попереднього вивантаження флешпам'яті, яка мінімізує затримку шляхом попереднього вивантаження даних під час послідовного доступу, і впровадила її в контролер. Крім того, пропускна здатність пам'яті була збільшена до 4,0 Гбіт/с внаслідок застосування сигналізації з низькою амплітудою та технології корекції/придушення спотворень в інтерфейсі між контролером пам'яті та флешпам'яттю.
Завдяки впровадженню високошвидкісних трансиверів PAM4 128 Гбіт/с з низьким енергоспоживанням та технологій, що підвищують продуктивність флешпам'яті, Kioxia створила прототип контролера пам'яті та модуля пам'яті, який використовує PCIe 6.0 (64 Гбіт/с, 8 ліній) як інтерфейс хоста до сервера. Прототип модуля пам'яті продемонстрував, що місткість 5 ТБ і пропускна здатність 64 ГБ/с можуть бути реалізовані при споживанні енергії менше ніж 40 Вт.
На додаток до IoT, аналізу великих даних і передової обробки AI на периферії, Kioxia просуває ранню комерціалізацію і практичне впровадження результатів цього дослідження, використовуючи нові ринкові тенденції, такі як генеративний AI.
Інновації завжди потребували інфраструктури, що дозволяла їм масштабуватися. Колись це були залізниці для парових двигунів, а сьогодні — колосальна фізична основа для штучного інтелекту (AI). Згідно з дослідженням Brookfield, це створює інвестиційну можливість вартістю понад 7 трильйонів доларів протягом наступного десятиліття, оскільки AI-автоматизація має потенціал додати понад 10 трлн дол. до річної світової економічної продуктивності, роблячи його найвпливовішою технологією в історії.
Звіт Brookfield спростовує скептицизм щодо того, що ефективніші AI-моделі можуть зменшити потребу в інфраструктурі. Це явище відоме як Парадокс Джевонса, згідно з яким підвищення ефективності використання ресурсу призводить до більшого його споживання. У звіті наведено історичний приклад: за останні 70 років реальна ціна електроенергії в США впала приблизно на 65%, тоді як загальне споживання зросло у 15 разів, що призвело до 5-кратного розширення світового ринку електроенергії до 3 трлн дол. Подібна динаміка спостерігається і в AI — за останні 18 місяців вартість обчислень для розробників, яку стягувала OpenAI, впала на 99%, що стрімко стимулює попит. Попит також посилюється тим, що AI став стратегічним суверенним пріоритетом. Уряди по всьому світу, від США до країн Європи, розглядають його як питання національної безпеки та економічної незалежності. Це призвело до значних державних інвестицій та партнерств з приватним капіталом. Приклади включають ініціативу InvestAI, що має мобілізувати до 200 млрд євро інвестицій, у тому числі на будівництво чотирьох «AI-гігафабрик» у Європі, кожна з яких вміщатиме до 100 тис. високопродуктивних AI-чипів, партнерство Brookfield з урядом Франції на 20 млрд євро, а також співпрацю зі Швецією з інвестиціями в 10 млрд дол. Згідно з дослідженням, потенційні інвестиції в AI-інфраструктуру розподіляються між чотирма основними напрямками.
Перший — це AI-фабрики, на які припадає 2 трлн дол. Це сучасні, надщільні дата-центри, що використовують передові системи рідинного охолодження, і їхня потужність, як очікується, зросте більш ніж у 10 разів до 2034 року, досягнувши 82 ГВт. Другий напрямок — обчислювальна інфраструктура з бюджетом у 4 трлн дол. Ядром цієї інфраструктури є GPU. За останні 10 років їхня продуктивність зросла у 1000 разів, випередивши закон Мура. За прогнозами, кількість встановлених GPU зросте у 7 разів — до 45 млн одиниць до 2034 року. Третій напрямок — енергетика та передача, що потребуватиме 0,5 трлн дол. Це одне з найбільших «вузьких місць», оскільки AI-чипи є у 10 разів більш енергомісткими, ніж звичайні сервери. І, нарешті, ще 0,5 трлн дол. буде інвестовано в стратегічні суміжні сектори та партнерства, такі як оптоволоконні мережі, системи охолодження та виробництво мікросхем.
Попри величезні можливості, Brookfield також зазначає ризики та виклики. Головним з них є обмеження електромереж та тривалі терміни підключення. Іншою проблемою є технологічне застарівання, оскільки AI-чипи та їхні архітектури швидко еволюціонують, що вимагає від операторів AI-хабів створювати модульні проєкти, що легко модернізуються. Нарешті, Brookfield зауважує, що 75% майбутнього попиту на обчислення припадатиме на інференс (застосування, а не навчання моделей), що також вимагатиме адаптації інфраструктури.
Oxmiq Labs — новий стартап у галузі програмного забезпечення та інтелектуальної власності для графічних процесорів, заснований одним із провідних світових архітекторів і візіонерів у галузі GPU Раджа Кодурі (Raja Koduri), виходить із тіні після двох років інтенсивної розробки інтелектуальної власності. Раджа зібрав команду світового класу з архітекторів графічних процесорів та AI із загальним досвідом понад 500 років, сотнями патентів і колективним досвідом створення понад 100 млрд дол. доходу в попередніх компаніях.
Сучасні обчислення кардинально змінилися в бік мультимодальних інтерфейсів, в яких текст, аудіо, відео, зображення і 3D-середовища плавно взаємодіють один з одним, що зробило архітектуру GPU наріжним каменем цієї трансформації. На відміну від AI-прискорювачів з фіксованими функціями, які обробляють конкретні завдання, графічні процесори забезпечують універсальну обчислювальну гнучкість, необхідну для цих різноманітних модальностей, при цьому зберігаючи глибоку інтеграцію з основними операційними системами через стандартизовані API і уніфіковані моделі пам'яті. Ця архітектурна перевага позиціює GPU як необхідний обчислювальний движок як для поточних додатків, так і для сфери мультимодального AI, що розвивається, де різнорідні робочі навантаження повинні оброблятися узгоджено.
Ліцензована GPU IP OXMIQ перепроєктує GPU з нуля, включаючи передові технології, такі як наноагенти в кремнії з використанням ядер RISC-V, обчислення поблизу пам'яті та в пам'яті, а також транспортування світла. OXMIQ надає рішення, які забезпечують баланс між гнучкістю мультимодальних обчислень і радикальним поліпшенням продуктивності, необхідним для графічних та AI-навантажень наступного покоління для своїх клієнтів.
Спираючись на десятиліття розвитку галузі, OXMIQ дотримується стратегії «Програмне забезпечення перш за все», яка ставить на перше місце досвід розробників завдяки комплексному програмному стеку, сумісному як з кремнієм на базі OXMIQ IP, так і зі сторонніми платформами GPU і AI-прискорювачами.
OXCapsule, уніфікована програмна екосистема OXMIQ, абстрагується від складності апаратного забезпечення, щоб забезпечити безпроблемне розгортання на різних обчислювальних платформах, усуваючи проблеми з налаштуванням, які традиційно заважають гетерогенним середовищам.
Флагманський компонент OXPython дозволяє AI-додаткам NVIDIA CUDA на базі Python безперешкодно виконуватися на обладнанні, відмінному від NVIDIA, без зміни коду або перекомпіляції. OXPython, який спочатку буде запущений на платформі штучного інтелекту Tenstorrent в кінці цього року з інтеграцією декількох постачальників, демонструє прагнення OXMIQ до усунення апаратних бар'єрів і прискорення демократизації високопродуктивних обчислень в галузі.
«Ми раді співпраці з OXMIQ в області їх програмного стека OXPython, — сказав Джим Келлер (Jim Keller), генеральний директор Tenstorrent. — Здатність OXPython переносити робочі навантаження Python для CUDA на AI-платформи, такі як Wormhole і Blackhole, відмінно підходить для платформонезалежності розробників і розширення екосистеми. Це відповідає нашій меті — дати розробникам можливість відкрити й володіти всім своїм AI-стеком».
Крім програмного забезпечення, OXMIQ постачає повний стек апаратного IP для GPU, який забезпечує роботу кремнієвих рішень, що масштабуються від фізичного AI в крайових пристроях і автономних роботах до периферійної інфраструктури підприємств і дата-центрів зетта-масштабу. Їх масштабоване ядро GPU, OXCORE, об'єднує скалярні, векторні та тензорні обчислювальні движки в модульній архітектурі, що налаштовується для конкретних робочих навантажень, що забезпечує роботу наноагентів, нативне прискорення Python і сумісність з парадигмами SIMD/CUDA.
OXCORE легко масштабується від одного ядра для компактних додатків фізичного AI до тисяч ядер для центрів обробки даних завдяки архітектурі чиплетів OXQUILT. За допомогою OXQUILT клієнти можуть налаштувати оптимальне співвідношення обчислювальних потужностей, пам'яті та міжз'єднань відповідно до своїх потреб і значно скоротити час виведення на ринок, витрати на R&D і виробництво в порівнянні з поточними стандартними методологіями в галузі.
OXMIQ залучила 20 млн дол. стартового фінансування від відомих технологічних інвесторів, включаючи стратегічних гравців в області мобільних пристроїв і AI, таких як MediaTek, і зафіксувала свій перший раунд доходів від продажу програмного забезпечення. Завдяки своїй моделі, заснованій на ліцензуванні, OXMIQ уникає високих капітальних витрат, характерних для стартапів, що займаються виробництвом мікросхем, які залежать від дорогих інструментів EDA і фізичних стрічок, забезпечуючи при цьому видатну ефективність капіталу.
«OXMIQ має дивовижно сміливу концепцію і команду світового рівня», — сказав Лоуренс Ло (Lawrence Loh), старший віцепрезидент MediaTek. «Інновації компанії в області GPU IP і програмного забезпечення відкриють нову еру гнучкості обчислень на всіх пристроях — від мобільних до автомобільних і AI на периферії».
Стандарт Wi-Fi 8 (IEEE 802.11be) поки що перебуває на стадії обговорення, але вже сьогодні експерти, які беруть у ньому участь, діляться своїм баченням тих інновацій, які повинні з'явитися в майбутній специфікації.
У світі бездротового зв'язку швидкість довгий час була головною характеристикою. Wi-Fi 7 розширив межі максимальної продуктивності, забезпечивши виняткову пропускну здатність і низьку затримку. Але в міру того, як штучний інтелект все глибше проникає в системи, які визначають наш спосіб життя і роботу, — оскільки оперативність в режимі реального часу стає важливою для всього, від автоматизації до спільної роботи, а користувачі та пристрої вимагають безперебійного зв'язку в русі — очікування щодо бездротового зв'язку змінюються.
Wi-Fi 8 знаменує собою фундаментальний поворот — вихід за межі максимальних швидкостей, щоб зробити пріоритетом надійну продуктивність в складних реальних умовах. Він розроблений для забезпечення стабільного зв'язку з низькою затримкою і практично без втрат навіть в умовах високого завантаження, схильності до перешкод і мобільного середовища.
Спираючись на більш ніж двадцятирічний досвід інновацій в області бездротових технологій, Wi-Fi 8 вдосконалює і розширює можливості своїх попередників, щоб задовольнити вимоги критично важливих систем на базі AI та динамічних сценаріїв використання. Він розроблений, щоб наблизити Wi-Fi як ніколи до надійності та чуйності дротової інфраструктури.
Стандарти Wi-Fi розробляються міжнародною групою інженерів і технологів, які співпрацюють в рамках органу зі стандартизації IEEE802.11. Ця робота ведеться під керівництвом робочої групи IEEE802.11bn в рамках ініціативи під назвою «Ultra High Reliability» (UHR).
UHR являє собою сміливе бачення, спрямоване на підвищення продуктивності Wi-Fi до нових висот. Документ IEEE, що визначає сферу застосування стандарту, ставить за мету: зробити бездротові з'єднання більш швидкими, чуйними та надійними.
Сучасні стандарти дозволяють Wi-Fi демонструвати дивовижні показники продуктивності: пропускну здатність в кілька гігабітів, затримку менш як 10 мс і коефіцієнт втрати пакетів менше ніж 0,1%. Попри це, Wi-Fi 8 прагне піти ще далі, значно поліпшивши продуктивність не тільки в порівнянні з Wi-Fi 7, але і в найскладніших сценаріях. Згідно з документом IEEE, Wi-Fi 8 матиме такі характеристики:
- Пропускна здатність, як мінімум на 25% вище в складних умовах приймання сигналу.
- На 25% менша затримка на 95-му процентилі розподілу затримок.
- На 25% менше втрачених пакетів, особливо при переході між точками доступу.
Ці вдосконалення призначені для підтримки як ізольованих, так і мережевих розгортань, що перекриваються, з акцентом на середовища, що характеризуються перевантаженням, перешкодами, мобільністю користувачів і межами покриття. Стандарт також вводить поліпшення в області енергоефективності, однорангового зв'язку і мобільності - все це має вирішальне значення для нових додатків.
Якщо дивитися в майбутнє, на 2028 рік і далі, мережі Wi-Fi повинні будуть підтримувати нові класи пристроїв, більшу мобільність цих пристроїв і критично важливі додатки. Wi-Fi 8 розроблений для вирішення цього завдання, забезпечуючи підвищену продуктивність і надійність в широкому спектрі середовищ. Ця технологія наступного покоління буде відігравати ключову роль у створенні інтелектуальних мобільних робочих просторів в корпоративному середовищі, імерсивних і важливих додатків в підключених будинках, а також безперебійного зв'язку високої щільності в громадських місцях. Не менш важливо, що Wi-Fi 8 розроблений для підтримки трансформаційних тенденцій, таких як поширення однорангового зв'язку між пристроями та зростання популярності сервісів, додатків і пристроїв на базі AI.
Крім сьогоднішніх зрозумілих потреб у підключенні, дві тенденції призведуть до різкого збільшення щільності та динамічності, необхідних від локальних мереж Wi-Fi.
Поширення екосистем персональних пристроїв: окуляри доповненої реальності, монітори здоров'я і пристрої нового покоління, що носяться, прискорюють попит на однорангові з'єднання з високою пропускною здатністю і низькою затримкою. Ці пристрої часто переносять обчислювально-місткі завдання на супутні пристрої, що вимагає безперебійної роботи бездротового зв'язку на короткі відстані.
Зростання систем на базі штучного інтелекту: хай то пристрої, що носяться, вбудовані в інтелектуальні середовища або автономні, системи на базі AI вимагають надійного зв'язку з низькою затримкою для доступу до периферійних або хмарних систем штучного інтелекту для виведення результатів в режимі реального часу. Ці інтелектуальні системи відіграють все більш важливу роль у тому, як ми взаємодіємо з навколишнім світом.
Wi-Fi 8 визначається як основоположна структура зв'язку, яка дозволяє цим екосистемам процвітати.
Реалізація цієї концепції залежить від нових можливостей, стандартизованих у 802.11bn, які покращують продуктивність Wi-Fi за п'ятьма найважливішими параметрами, що мають найбільше значення для реальних впроваджень.
Безшовний роумінг: 802.11bn вводить революційний підхід до мобільності через концепцію єдиних мобільних доменів, забезпечуючи безшовний роумінг між декількома точками доступу. Це дозволяє пристроям забезпечувати «один раз під'єднався — завжди підключений» шляхом підтримки безперервних з'єднань з низькою затримкою при переміщенні — без перерв або втрати пакетів, викликаних традиційними перемиканнями.
Надійне покриття на краю: ще одним важливим напрямком інновацій в стандарті 802.11bn є фокус на підвищенні продуктивності на краю — здатності мережі Wi-Fi підтримувати надійне високоякісне з'єднання для клієнтських пристроїв, що працюють в неідеальних умовах сигналу. Це особливо важливо для клієнтських пристроїв, що працюють на зовнішніх межах покриття точки доступу або в середовищах з погіршенням сигналу через відстань, перешкоди або обмеження по потужності. Стандарт розв'язує ці проблеми за допомогою ряду удосконалень фізичного рівня, які працюють разом, щоб посилити продуктивність на периферії.
Більш інтелектуальна координація для щільних розгортань: в середовищах з високою щільністю, таких як корпоративні кампуси, багатоквартирні будинки та громадські місця, мережі Wi-Fi можуть стикатися з проблемами перекриття сигналів і конфліктів ефірного часу. Ці умови можуть призвести до сплесків затримок, зниження пропускної здатності та погіршення загального досвіду користувачів. Wi-Fi 8 розв'язує цю проблему за допомогою одного зі своїх найважливіших нововведень: координації декількох точок доступу. Дозволяючи точкам доступу працювати спільно, а не незалежно одна від одної, Wi-Fi 8 пропонує більш інтелектуальний і ефективний спосіб доступу до середовища і спільного використання ресурсів між точками доступу, забезпечуючи стабільну якість обслуговування користувачів.
Покращене співіснування в пристрої: сучасні пристрої все частіше інтегрують кілька радіочастот (Wi-Fi, Bluetooth, UWB), що створює нові проблеми співіснування, такі як збої в одній технології при використанні загальної антени для іншої технології. Wi-Fi 8 вводить покращене співіснування всередині пристрою, щоб забезпечити більш плавну роботу, коли кілька радіостанцій спільно використовують антени або спектр, плавно обробляючи тимчасові збої, коли антена використовується для іншої технології.
Більш інтелектуальне використання енергії: у міру того як Wi-Fi стає все більш важливою частиною повсякденного життя, енергоефективність має вирішальне значення для продовження терміну служби батарей клієнтських пристроїв і мобільних точок доступу, а також для зниження енергоспоживання стаціонарних точок доступу і домашніх шлюзів. Wi-Fi 8 представляє нові функції, які роблять бездротовий зв'язок більш енергоефективним без шкоди для чуйності.
Wi-Fi 8 готовий перетворити бездротову продуктивність в тих середовищах, де це найбільш необхідно.
Корпоративний зв'язок — створення інтелектуальних мобільних робочих просторів: від розумних фабрик і лікарень до логістичних центрів і корпоративних кампусів — корпоративні середовища вступають в нову еру мобільності, інтелекту та автоматизації. Wi-Fi 8 розроблений для забезпечення надійності та продуктивності дротової інфраструктури за допомогою інновацій, які дозволяють використовувати новий клас критично важливих додатків, таких як колаборативні роботи, системи промислової автоматизації, дрони та автономні транспортні засоби (AGV), без перебоїв у роботі, навіть під час руху. Це знаменує собою фундаментальний зсув. Wi-Fi більше є не просто зручним доповненням, а основною інфраструктурою, що дозволяє приймати рішення в режимі реального часу, здійснювати автономні операції та масштабувати робочі процеси на основі AI.
Домашній зв'язок — забезпечення імерсивних і критично важливих домашніх додатків: підключений будинок перетворюється на платформу для імерсивних і все більш важливих послуг. Від автоматизації, яка прогнозує, до моніторингу здоров'я в режимі реального часу — ці послуги все більше покладаються на штучний інтелект, щоб стати контекстно-залежними, прогнозованими та чуйними, що ставить безпрецедентні вимоги до домашніх бездротових мереж. Wi-Fi 8 дозволить забезпечити стабільне надання цих послуг навіть в умовах високої щільності населення, таких як багатоквартирні будинки, де перешкоди та перевантаження традиційно обмежували продуктивність.
Громадські місця — забезпечення безперебійної мобільності в умовах високої щільності населення: такі об'єкти, як аеропорти, стадіони та транспортні вузли, перетворюються на гіперпідключені середовища. Користувачі очікуватимуть безперебійного доступу до послуг, включаючи обмін відео в реальному часі, навігацію з використанням доповненої реальності (AR), переклад в реальному часі та імерсивні враження для відвідувачів під час переміщення. Ці об'єкти все частіше покладаються на бездротову інфраструктуру для підтримки критично важливих систем безпеки, відеоспостереження, сенсорних мереж, екстреного зв'язку та відстеження людей і активів в реальному часі. Wi-Fi 8 матиме вирішальне значення для забезпечення безперебійної мобільності та стабільної продуктивності, дозволяючи користувачам залишатися на зв'язку під час переміщення по великих просторах і забезпечуючи безперебійну роботу критично важливих операцій навіть у години пікового навантаження.
Розробка стандарту 802.11bn є спільною роботою робочої групи 802.11, в якій бере участь безпрецедентна кількість учасників. Досягнуто значного прогресу, і щодо значної частини нового стандарту вже досягнуто консенсусу на високому рівні, в той час, як інші елементи залишаються предметом обговорення. У майбутньому робоча група 802.11bn буде зайнята доопрацюванням міцної та високоякісної основи майбутнього покоління Wi-Fi 8 — покоління, яке, як очікується, буде використовуватися в мільярдах пристроїв в наступному десятилітті.