`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Від гігагерців до гігаватів: енергетичний виклик епохи AI

+11
голос

Ще недавно суперечки довкола розвитку штучного інтелекту точилися навколо швидкості процесорів, кількості параметрів у моделях та архітектурних інновацій. Сьогодні все частіше у розмовах з'являється інша величина — гігавати. І саме енергетика, а не алгоритми, стає головним вузьким місцем у майбутньому AI.

Енергетичний апетит сучасних мовних моделей

Щоб зрозуміти масштаб проблеми, варто почати з конкретики. За оцінками дослідників зі Stanford University, тренування однієї моделі GPT-3 (175 млрд параметрів) споживає близько 1,287 МВт⋅год електроенергії. Це еквівалент річного споживання 120 американських домогосподарств. GPT-4, за неофіційними оцінками, має понад трильйон параметрів, і його тренування вимагало у 5-10 разів більше енергії.

Але тренування — це лише половина історії. Inference, тобто безпосереднє використання моделі для генерації відповідей, створює постійне навантаження. Один запит до ChatGPT споживає приблизно у 10 разів більше енергії, ніж традиційний пошуковий запит до Google. Коли мова йде про сотні мільйонів запитів щодня, цифри стають астрономічними.

Архітектура трансформерів, що лежить в основі сучасних LLM, за своєю природою енергозатратна. Механізм attention вимагає обчислення квадратичної залежності від довжини контексту. Саме тому індустрія активно експериментує з альтернативними архітектурами — Mamba, RWKV, гібридними моделями — але поки що жодна не показала достатньої ефективності при збереженні якості.

Обіцянки Альтмана: реальність чи амбіції?

Внутрішня переписка в Slack, про яку у вересні 2025 року повідомило The Information, розкрила план OpenAI: до 2033 року компанія має вийти на рівень споживання 250 ГВт електроенергії. Для масштабу: на початку 2025 року OpenAI споживала близько 0,25 ГВт, до кінця цього року планує досягти 2 ГВт. Прогноз зростання — у 125 разів менш ніж за десятиліття.

Порівняння: уся атомна генерація США, за даними U.S. Energy Information Administration (EIA), становить близько 95–100 ГВт. Тобто апетити однієї OpenAI до 2033 року мають перевищити весь ядерний парк найбільшої економіки світу.

Але OpenAI — не єдиний гравець. Google, Meta, Microsoft, Amazon, Anthropic — кожен будує власну AI-інфраструктуру. Сумарні потреби галузі можуть досягти 500–700 ГВт до початку 2030-х. Це близько 15% усього світового споживання електроенергії станом на 2025 рік.

Де взяти енергію: сценарії та реальність

Атомна генерація: повернення до витоків

Класична атомна енергетика має ресурс і стабільність, але темпи її розвитку повільні. Будівництво одного великого реактора в США займає 10–15 років, у ЄС — ще довше. Проте AI-компанії не чекають.

У березні 2024 року Microsoft уклала угоду з Constellation Energy про перезапуск реактора Three Mile Island Unit 1, який простояв законсервованим з 2019 року. Потужність — 835 МВт, увесь обсяг зарезервований під дата-центри Microsoft. Запуск планується на 2028 рік.

Amazon у жовтні 2024 року придбала дата-центр безпосередньо на території АЕС Susquehanna у Пенсільванії за $650 млн. Це перший у США випадок, коли tech-гігант отримав пряме підключення до ядерного реактора, оминаючи загальну мережу.

Окремий тренд — малі модульні реактори (SMR). Компанії на кшталт NuScale Power, TerraPower (за підтримки Білла Гейтса) та X-energy обіцяють реактори потужністю 50–300 МВт із термінами будівництва 3–5 років.

Google вже уклала угоду з Kairos Power на постачання 500 МВт від SMR до 2030 року. Meta інвестувала $800 млн у дослідження молтен-солт реакторів.

Проблема SMR — регуляторна. У США досі немає сертифікованих комерційних установок. Перший модуль NuScale планують запустити лише у 2029–2030 роках. До того часу всі обіцянки залишаються на папері.

Відновлювана енергетика: китайський темп

Китайський приклад виглядає показовим. За даними BloombergNEF, у травні 2025 року сумарна потужність сонячних станцій у КНР перевищила 1,08 ТВт — удвічі більше, ніж роком раніше. Лише за перші п'ять місяців року країна додала 200 ГВт сонячних установок, а до кінця року прогнозують ще 215–255 ГВт. Це більше, ніж уся мета OpenAI на десятиріччя.

Але сонце і вітер нестабільні. Дата-центри, що працюють 24/7, не можуть дозволити собі простоїв. Коефіцієнт використання (capacity factor) сонячних станцій становить 15–25%, вітрових — 25–35%, тоді як для AI-кластерів потрібна доступність 99,99%.

Google та Microsoft інвестують у великі батарейні системи. Проєкт Moss Landing Energy Storage у Каліфорнії з потужністю 3 ГВт⋅год — найбільший у світі станом на 2025 рік — забезпечує резерв для дата-центрів Google. Але економіка накопичення поки не дозволяє масштабувати це рішення глобально. Вартість зберігання 1 кВт⋅год протягом 8 годин становить $150–200, що робить цілодобову роботу на батареях збитковою.

Альтернатива — географічна диверсифікація. Meta будує дата-центри у Північній Швеції, де гідроенергетика забезпечує стабільні 95% capacity factor. Amazon веде переговори з Ісландією про використання геотермальної енергії — там вже працює невеликий кластер на 50 МВт з PUE (Power Usage Effectiveness) 1,03, одним із найкращих у світі.

Термоядерний прорив: ставка на майбутнє

Сем Альтман неодноразово інвестував у компанії на кшталт Helion Energy, які обіцяють комерціалізувати термояд уже у 2028–2030 роках. Helion підписала контракт з Microsoft на постачання 50 МВт до 2028 року — перша у світі комерційна угода на термоядерну енергію.

Commonwealth Fusion Systems, за підтримки Google і Temasek, будує прототип реактора SPARC у Массачусетсі. Обіцяють net energy gain до 2027 року та комерційний реактор ARC потужністю 400 МВт до 2030-го.

Проблема: станом на 2025 рік у світі немає жодної діючої комерційної термоядерної установки. Навіть експериментальна установка NIF у США, яка у 2022 році вперше досягла net gain, не може працювати безперервно — їй потрібні години на перезарядку між імпульсами.

Термояд залишається найбільшою інженерною авантюрою у цій історії. Якщо він спрацює — енергетична криза AI зникне. Якщо ні — галузь застрягне у жорсткій конкуренції за традиційні джерела.

Cooling: друга половина проблеми

Навіть якщо електрику буде знайдено, лишається другий виклик — охолодження. За оцінками International Energy Agency (IEA), на системи охолодження дата-центрів припадає від 30% до 40% усього споживання енергії. Із ростом потужностей до сотень гігаватів ця частка стане критичною.

PUE: метрика ефективності

Power Usage Effectiveness (PUE) — основна метрика енергоефективності дата-центрів. Формула проста: загальне споживання енергії поділене на споживання обчислювальним обладнанням. PUE = 2,0 означає, що на кожен ватт для серверів витрачається ще один ватт на охолодження та інфраструктуру.

Середній PUE традиційних дата-центрів — 1,6–1,8. Найкращі hyper-scale дата-центри Google та Meta досягають 1,1–1,12. Це означає, що лише 10–12% енергії йде не на обчислення.

Але AI-кластери з щільністю розміщення GPU створюють нові виклики. Nvidia H100 виділяє 700 Вт тепла, новий B200 — до 1000 Вт. У стійці на 42U можна розмістити до 8 серверів із 8 GPU кожен — це 64 кВт тепла з однієї стійки. Традиційне повітряне охолодження не справляється.

Рідинне охолодження: неминучий перехід

Immersion cooling — занурення серверів у діелектричну рідину — дозволяє досягти PUE 1,03–1,05. Рідина безпосередньо контактує з компонентами, забираючи тепло в 25 разів ефективніше за повітря.

Microsoft з 2023 року тестує immersion cooling у своєму дата-центрі у штаті Вашингтон. За їхніми даними, споживання енергії на охолодження знизилося на 45%, а температура GPU — на 15°C, що продовжує термін служби обладнання.

Liquid cooling (прямий контакт cold plates з процесорами) використовують Meta, Amazon та Alibaba. Schneider Electric разом із Motivair розробили модульні системи спеціально для AI-кластерів Nvidia — вони вже 8 років працюють разом, тож нові рішення інтегруються за тижні, а не місяці.

Проблема — інфраструктура. Більшість існуючих дата-центрів не розраховані на рідинне охолодження. Потрібні нові системи розподілу, heat exchangers, резервуари. Модернізація одного дата-центру коштує $50–100 млн.

Free cooling: коли природа допомагає

У північних країнах (Ісландія, Норвегія, Фінляндія, Швеція) дата-центри використовують зовнішнє повітря для охолодження. Facebook (Meta) побудував у Лулео, Швеція, один із найефективніших дата-центрів у світі з PUE 1,07. Зимові температури −20°C дозволяють охолоджувати сервери практично безкоштовно.

Але навіть там виникає явище «теплового забруднення». Тепло від серверів скидається у водойми або використовується для обігріву будинків. Влітку надлишок тепла залишається проблемою. Зростання температури водойм знижує вміст кисню, що впливає на рибу й екосистеми.

Скандинавські міста експериментують із утилізацією тепла. У Стокгольмі дата-центр Bahnhof постачає теплову енергію для 10 тисяч квартир. Але літній надлишок тепла досі не має ефективного застосування — акумулювати його економічно недоцільно.

Економіка енергії: нові правила гри

PPA та вертикальна інтеграція

AI-компанії більше не покладаються на загальну електромережу. Вони укладають прямі контракти на постачання електроенергії (Power Purchase Agreements, PPA) на 15–25 років вперед. Google з 2010 року уклала PPA на сумарну потужність понад 10 ГВт — більше, ніж споживають деякі країни. Amazon є найбільшим корпоративним покупцем відновлюваної енергії у світі — 20 ГВт за контрактами станом на 2024 рік.

Meta йде далі — купує не контракти, а самі енергокомпанії. У 2024 році компанія придбала 40% акцій сонячного оператора Longroad Energy за $1,2 млрд. Microsoft інвестувала $1 млрд у фонд Climate Innovation Fund для розвитку енергетичної інфраструктури.

Вартість електроенергії стає ключовим фактором розміщення дата-центрів. У США ціна 1 кВт⋅год коливається від $0,03 у Вашингтоні (гідроенергетика) до $0,25 у Каліфорнії. Для дата-центру потужністю 100 МВт різниця становить $193 млн на рік.

Конкуренція за електроенергію

Величезні дата-центри почали прямо конкурувати з побутовим та промисловим споживанням. В Ірландії дата-центри споживають 18% усієї електроенергії країни — більше, ніж усі домогосподарства Дубліна. Уряд запровадив мораторій на нові дата-центри до 2028 року.

У Нідерландах влада Амстердама у 2019 році ввела заборону на будівництво нових дата-центрів через дефіцит енергії. У 2025 році заборону продовжили до 2030 року.

У США штати конкурують за AI-інфраструктуру. Техас пропонує податкові пільги та дешеву енергію від вітрових станцій. Огайо виділив $500 млн на підготовку енергетичної інфраструктури для дата-центрів. Вірджинія, де зосереджено 70% американських дата-центрів, стикається з перевантаженням мереж — будівництво нових об'єктів відкладається на роки через відсутність підключень.

Регуляторний контекст: коли держава втручається

Європейський Союз запровадив Energy Efficiency Directive, яка з 2025 року вимагає від дата-центрів PUE не гірше 1,4 та використання мінімум 25% відновлюваної енергії. З 2027 року мінімум зростає до 50%, з 2030 — до 75%.

США поки не мають федерального регулювання, але окремі штати вводять власні норми. Каліфорнія з 2026 року вимагатиме сертифікацію енергоефективності для всіх нових дата-центрів потужністю понад 1 МВт.

Китай запровадив найжорсткіші норми: PUE не гірше 1,3 для нових дата-центрів у великих містах, 1,25 — для регіональних хабів. Дата-центри, які не відповідають нормам, втрачають доступ до державних замовлень.

Український контекст: потенціал і пастки

Після завершення війни Україна матиме унікальну можливість побудувати енергоефективну AI-інфраструктуру з нуля. Три фактори грають на користь:

Дешева енергія. За прогнозами, відновлення атомної генерації дозволить знизити вартість електроенергії до $0,02–0,03 за кВт⋅год — одна з найнижчих у Європі.

Клімат для free cooling. Середня річна температура 7–9°C у більшості регіонів дозволяє використовувати природне охолодження 8–9 місяців на рік.

Географічна позиція. Пінг до Франкфурта, Варшави, Стамбула — в межах 20–40 мс, що достатньо для більшості AI-застосунків.

Але варто уникнути помилок минулого. Український досвід показує наслідки безконтрольного «теплового забруднення».

Для AI-дата-центрів критично важливо з самого початку закласти утилізацію тепла, замкнені цикли водопостачання та екологічний моніторинг.

Позитивний приклад — Фінляндія, де законодавство вимагає обов'язкової утилізації тепла від дата-центрів для централізованого опалення. Кожен новий дата-центр зобов'язаний підключитися до теплової мережі міста. Україна могла б запозичити цю практику.

Масштабні наслідки: що далі?

Енергетика стає новим «бутылочним горлышком» для AI. Якщо зараз ключовим бар'єром були GPU та чипи, то вже за кілька років вирішальним стане доступ до стабільних джерел енергії.

Декілька трендів визначать наступне десятиліття:

Конкуренція за електроенергію посилиться. AI-компанії почнуть прямо конкурувати з промисловістю та побутовим сектором. Держави змушені будуть вибирати: підтримувати AI-індустрію чи захищати традиційних споживачів.

Екологічний тиск зростатиме. Утилізація тепла від дата-центрів, вплив на водойми, «теплове забруднення» та водні ресурси стануть головними темами наступної хвилі «зелених» дискусій. Екологічні організації вже тиснуть на регуляторів.

Нові альянси AI та енергетики. Провідні AI-компанії інтегруються в енергетичні проєкти — від будівництва сонячних станцій до інвестицій у термояд. Межа між tech і energy sectors розмивається.

Географічна децентралізація. Дата-центри переміщуються туди, де є енергія, а не туди, де є користувачі. Ісландія, Норвегія, Казахстан, можливо Україна — нові хаби AI-інфраструктури.

Енергоефективність як конкурентна перевага. Компанії, які першими впровадять рідинне охолодження, SMR, термояд або ефективне накопичення енергії, отримають величезну перевагу. Енергетичний PUE стане таким же важливим KPI, як і точність моделей.

Чи можливий «закон Альтмана»?

Закон Мура забезпечив напівпровідниковій галузі 50 років розвитку — подвоєння продуктивності кожні 18–24 місяці. Тепер Альтман формулює нову планку — зростання енергоспоживання AI у 125 разів за десятиліття. Але на відміну від транзисторів, енергію не можна «зменшити» чи ущільнити — її треба виробити і доставити.

Фізика накладає жорсткі обмеження: будівництво електростанцій, прокладання ліній електропередач, модернізація мереж — усе це вимагає років і трильйонів доларів інвестицій.

Реалістичний сценарій: галузь досягне 50–100 ГВт до 2030 року, а подальше зростання уповільниться, поки не з'явиться термояд або інший прорив. До того часу AI-компанії конкуруватимуть не за таланти чи алгоритми, а за мегавати.

Тож головне питання на найближче десятиріччя звучить так: чи зможе людство витримати енергетичний апетит AI, не обваливши власну екологію і не створивши нових криз?

Відповідь на це питання визначить не лише майбутнє штучного інтелекту, а й траєкторію розвитку цивілізації загалом.

Стратегія охолодження ЦОД для епохи AI

+11
голос

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT