`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

RegTech: революція в автоматизації комплаєнсу

Глобальний ринок регуляторних технологій (RegTech) ще кілька років тому здавався нішевим. Сьогодні цифри говорять самі за себе: за оцінками Fortune Business Insights, у 2024 році він становив 15,8 млрд дол., а до 2032-го може зрости до 82,8 млрд дол. Тобто фактично в п’ять разів. І причина тут проста — автоматизація у сфері комплаєнсу стає критичною.

Поштовхом для RegTech стала фінансова криза 2008 року. Тоді регулятори у всьому світі наклали на банки тисячі нових вимог. Витрати на дотримання правил почали “з’їдати” до 10–15% операційних бюджетів, і стало зрозуміло: без IT цю машину не зрушити.

RegTech (Regulatory Technology) — це IT-рішення, що автоматизують виконання регуляторних вимог. Якщо FinTech — це про цифрові платежі, мобільний банкінг чи P2P-кредити, то RegTech — вузька спеціалізація всередині фінтеху, яка зосереджена виключно на комплаєнсі.

Де застосовується
  • Регуляторна звітність. Автоматичний збір та формування даних у потрібному форматі.
  • Управління ризиками. Моніторинг у реальному часі для виявлення шахрайства чи аномалій.
  • KYC/AML. Перевірка клієнтів і транзакцій на відповідність правилам.
  • Моніторинг законодавства. Відстеження змін і синхронне оновлення внутрішніх процедур.

Технологічний стек тут цілком сучасний: хмарні обчислення, великі дані, штучний інтелект, машинне навчання. Все, що дозволяє швидко обробляти гігабайти інформації й працювати без збоїв 24/7.

RegTech-рішення — це класика високонавантажених систем. Вони працюють із чутливими даними, тому потребують максимальної надійності та захисту. Не дивно, що хмари стали стандартом для їхнього розгортання.

Навіщо бізнесу? Для банків та страхових компаній - це вже must-have. Але завдяки хмарним SaaS-рішенням RegTech поступово стає доступним і для малого та середнього бізнесу.

Основні плюси очевидні. Перш за все — скорочення витрат на комплаєнс та більш швидкі та більш точні звіти. Крім того — мінімізація людських помилок та готовність до нових регуляторних вимог без стресу.

Наступний етап — предиктивна аналітика та AI, яка дозволить перейти від “реактивного” комплаєнсу (коли бізнес реагує на нові правила) до “проактивного” управління ризиками
 

Квантова ера вже тут?

Квантова індустрія, що включає обчислення, комунікацію та сенсори, переживає справжній бум. Це не лише технологічні прориви, а й рекордні інвестиції, що підживлюють стрімкий розвиток стартапів. Завдяки цій динаміці квантові технології поступово виходять із наукових лабораторій і стають частиною глобальної економіки.

Незважаючи на те, що у 2023 році загальні інвестиції в квантові стартапи дещо знизилися (на 27%), загальний обсяг фінансування залишається вражаючим. У квантові обчислення було вкладено 6,7 млрд дол., у квантову комунікацію – 1,2 млрд дол., а в квантові сенсори – 0,7 млрд дол.. Інвестори продовжують демонструвати оптимізм щодо майбутнього цієї індустрії.

Прогнози щодо зростання ринку квантових обчислень виглядають ще більш вражаюче. За оцінками Fortune Business Insights, ринок зросте з 928,8 млн дол. до 6,5 млрд дол. до 2030 року, демонструючи сукупний річний темп зростання 32,1%. У довгостроковій перспективі, до 2040 року, ринок може сягнути від 45 до 131 млрд дол..

Хто ж ключові гравці в цьому сегменті?

Індустрія квантових технологій сьогодні – це симбіоз великих корпорацій та інноваційних стартапів. Такі гіганти, як Google, Microsoft та IBM, розробляють власне обладнання, програмне забезпечення та платформи. При цьому на ринку квантових обчислень вже існує понад 261 стартап, що пропонують рішення у цих сферах.

Багато компаній активно розвивають концепцію «Квантові обчислення як послуга» (QaaS), надаючи доступ до своїх хмарних платформ. Це дозволяє підприємствам і дослідникам використовувати потужність квантових комп’ютерів без необхідності купувати дороге обладнання.

Гонка за квантове лідерство відбувається по всьому світу. США очолюють рейтинг за кількістю патентів, тоді як Китай демонструє значні державні інвестиції та нарощує дослідницьку активність.

Франція, Німеччина, Великобританія та Нідерланди мають потужні державні програми фінансування та інноваційні центри. Євросоюз та Великобританія є лідерами за кількістю та щільністю кваліфікованих фахівців.

Індія запустила Національну квантову місію, а Ізраїль створив консорціум для дослідження кубітів.

Інноваційні кластери стають центрами розвитку квантових технологій, серед яких виділяються Париж, Делфт, а також дослідницькі центри в Хефеї (Китай) та Національному університеті Тайваню.

Попри стрімкий розвиток, квантова індустрія стикається з серйозними викликами: високою вартістю, труднощами з масштабуванням і потребою в корекції помилок. Найбільш критичною проблемою є дефіцит талантів. За прогнозами McKinsey, до 2025 року менше половини робочих місць у квантовій сфері будуть заповнені.

Однак хоча технологія ще перебуває на початковій стадії, у деяких сегментах її вже успішно застосовують для вирішення надскладних завдань.

Фармацевтика: У сфері розробки нових ліків традиційні комп’ютери неспроможні моделювати поведінку складних молекул з потрібною точністю. Квантові обчислення дозволяють проводити більш точну симуляцію молекулярних взаємодій, значно прискорюючи процес відкриття нових медичних препаратів та персоналізованої медицини. Фармацевтичні гіганти вже співпрацюють з квантовими компаніями, щоб досліджувати нові сполуки та їх властивості.

Фінансовий сектор: Для банків та інвестиційних фондів надважливими є оптимізація портфеля, ціноутворення деривативів та виявлення шахрайства. JPMorgan Chase, наприклад, досліджує застосування квантових алгоритмів для оптимізації фінансових портфелів, що вимагає аналізу величезної кількості змінних. Квантові обчислення можуть швидко знайти оптимальні рішення, які є недоступними для класичних систем, дозволяючи максимізувати прибуток і мінімізувати ризики.

Коли ж квантові обчислення стануть мейнстримом? Експерти вважають, що для їхнього широкого впровадження може знадобитися ще 15-20 років, але корисні застосунки для вирішення конкретних завдань можуть з'явитися значно раніше. Таким чином, нинішня ера – це час активного розвитку, значних інвестицій та цілеспрямованої роботи над подоланням технічних викликів.
 

Чому АІ-чіпи стали новим золотом технологічного ринку

За підсумками минулого року ринок АІ-чипів оцінювався у 71 млрд дол. за даними Statista, а до початку 2026 року може збільшитися на 30%. Для цього є всі умови: попит на рішення Nvidia продовжує зростати, і компанія зберігає лідерство в галузі, попри посилення конкуренції. 

На тлі зростаючого інтересу до штучного інтелекту в цілому (і тренду на АІ-агентів зокрема) ця тенденція лише посилиться, стимулюючи подальші інновації та конкуренцію серед виробників. 

Чому з’явилися спеціалізовані чипи для АІД

райвером ринку стало лавиноподібне зростання завдань штучного інтелекту, для яких потрібні масштабні паралельні обчислення. Традиційні процесорні й графічні чипи перестали справлятися з цим навантаженням, включно з тими, що були розроблені спеціально для рендерингу графіки. Так з’явилася нова вільна ніша: АІ-чипи і від них багато в чому залежить майбутнє АІ. Як стверджує професор Іллінойського університету Нареш Шанбхаг (Naresh Shanbhag), «оскільки передові технології продовжують розвиватися і змінюватися, то й апаратне забезпечення повинно змінюватися і слідувати за ними».

Цей попит підтверджується і недавніми новинами. Так, компанія ASML, ключовий постачальник обладнання для виробництва чипів, повідомила про зростання квартальних продажів у річному вимірі на 24,2% у другому кварталі 2025 року, що є прямим наслідком величезного попиту на чипи для АІ. Крім того, Meta Platforms Inc. нещодавно оголосила про інвестиції в «сотні мільярдів доларів» у будівництво нових мультигігаватних центрів обробки даних, повністю орієнтованих на розвиток штучного інтелекту. Це демонструє не лише поточний, а й майбутній колосальний попит на спеціалізовані АІ-чипи.

Що таке АІ-чипиА

І-чипи – це не просто одна категорія, а цілий спектр спеціалізованих процесорів (як-от NPU, ASIC та FPGA), які значно відрізняються від універсальних CPU (центральних процесорів) та навіть від GPU (графічних процесорів), що були адаптовані для завдань штучного інтелекту. Якщо CPU – це "мозок" комп'ютера, який чудово справляється з послідовними операціями та загальними завданнями, то GPU, з тисячами своїх ядер, відмінно підходить для паралельних обчислень, що лежать в основі графіки та машинного навчання.

Натомість, справжні АІ-чипи розроблені з нуля або глибоко оптимізовані саме для специфічних операцій штучного інтелекту. Вони забезпечують безпрецедентну швидкість та енергоефективність у своїх цільових АІ-завданнях, будь то розпізнавання мови чи обробка зображень. Це дозволяє їм перевершувати CPU та навіть GPU у конкретних сценаріях, що робить їх ключовим елементом сучасної АІ-інфраструктури.
Які бувають АІ-чипи та чим вони відрізняються
Виділяють кілька типів чипів з підтримкою штучного інтелекту, які відрізняються конструктивно або сферою застосування. Розгляньмо, чим відрізняються GPU, NPU, FPGA та ASIC для АІ, і для яких сценаріїв найкраще підходить кожен тип.

GPU (графічні процесори або ж графічні прискорювачі) — це мікрочипи, початково створені для ефективної обробки комп’ютерної графіки, наприклад, відеоігор або рендерингу. Пізніше їх стали використовувати для навчання АІ-моделей. Вони мають високу швидкість АІ-обчислень, середню гнучкість і середню енергоефективність, використовуються для навчання LLM, генеративного АІ та візуалізації.

FPGA (програмовані користувачем вентильні матриці) — це мікропроцесори з «гіперспеціалізацією», тобто підтримують перепрограмування під конкретне завдання. Такі чипи адаптують під конкретні застосунки, наприклад, пов’язані з обробкою відео, щоб отримати максимум віддачі. Вони відзначаються дуже високою гнучкістю, середньо-високою швидкістю АІ-обчислень та високою енергоефективністю за умови правильного налаштування, ідеально підходять для відеоаналітики, edge-комп’ютингу та 5G.

ASIC (інтегральні схеми спеціального призначення) — це мікропроцесори, які найкраще проявили себе в АІ-застосунках, але при цьому їх не можна перепрограмувати, як FPGA. Типовий приклад ASIC — тензорний процесор Google, він же TPU (Tensor Processing Unit). Вони мають низьку гнучкість, дуже високу швидкість АІ-обчислень та дуже високу енергоефективність, і є високопродуктивними АІ-чипами «під ключ». Прикладом є Google TPU та Amazon Inferentia.

NPU (нейронні процесори) — це чипи, створені для глибокого навчання і роботи з нейронними мережами. Вони виконують складні завдання швидше, ніж інші типи чипів, включно з розпізнаванням зображень, редагуванням відео або обробкою природної мови. NPU мають середню гнучкість, є оптимізованими під нейромережі та глибоке навчання, забезпечують максимальну швидкість у нейромережевих завданнях та дуже високу енергоефективність, використовуються для обробки відео, NLP та у смартфонах.

Які основні особливості АІ-чипівЄ

кілька властивостей, які виділяють АІ-чипи на тлі традиційних процесорів, включно з тими, що спочатку адаптовані під високі навантаження.

Швидкість обчислень: Чипи зі штучним інтелектом використовують паралельні обчислення, тобто обробляють дані паралельно, розбиваючи великі завдання на тисячі й мільйони маленьких. Традиційні процесори виконують таке ж об’ємне завдання повільніше, використовуючи послідовні обчислення.

Точність: АІ-чипи перевершують традиційні мікропроцесори не тільки у швидкості, але й у точності — тобто роблять менше помилок. Це дозволяє використовувати їх в обчисленнях з високою ціною помилки: медичних, фінансових, пов’язаних з управлінням автономного транспорту.

Адаптивність: АІ-чипи можна налаштувати таким чином, щоб вони найкращим чином виконували одне пріоритетне завдання. Наприклад, забезпечували навчання нової моделі або аналіз великих обсягів даних.

Енергоефективність: Сучасні АІ-чипи споживають менше енергії, а значить, більш економічні — завдяки оптимізованій архітектурі, що дозволяє ефективно використовувати енергію при високих навантаженнях. І це не тільки економічний ефект: дата-центри, орієнтовані на АІ-навантаження, залишають менший вуглецевий слід.

Через те, що різні мікропроцесори відрізняються продуктивністю та іншими параметрами, не можна однозначно відповісти на питання про те, скільки коштують АІ-чипи. В середньому ціна на топові рішення від Nvidia на кшталт H100 варіюється від 30 000 до 40 000 доларів, на споживчі, як GeForce RTX 4090 та 5090 — до 2000 доларів.

Які компанії виробляють АІ-чипиП

оряд з лідерами ринку є поки що маловідомі рішення, які також варті уваги. Подивимось, хто зараз займається розробкою АІ-чипів і досяг певних результатів.

Nvidia — безумовний лідер ринку. Компанія контролює зараз від 75% до 90% ринку АІ-чипів, хоча й стикається з високою конкуренцією. А її капіталізація за короткий час, майже за декілька років, зросла до 4 трлн дол. Успіх пояснюється декількома причинами: універсальна масштабована архітектура, дуже добре розвинена екосистема для АІ-розробки й швидка реакція — компанія зробила ставку на АІ раніше за конкурентів.

AMD — другий гравець на ринку АІ-чипів після Nvidia. Причому компанія випускає, як спеціалізовані процесори під АІ як для персональних компʼютерів так і серверні рішення.

Intel — компанія спробувала увірватися на ринок зі своїм продуктом Gaudi 3, але була змушена зменшити свої амбіції, оскільки його продажі не виправдали очікувань. На думку експертів, цей мікрочип гірше підходить для навчання великих мовних моделей, ніж рішення конкурентів Nvidia та AMD.

Huawei — нещодавно розробила чип Ascend 910D, який може конкурувати за продуктивністю з H100 від Nvidia.

Qualcomm — інтегрує АІ прямо в мобільні чипсети, що дозволяє обробляти дані локально — без відправки в хмару.

Хто розробляє АІ-чипи для своїх завданьВ

еликі IT-корпорації також активно розробляють власні чипи для задоволення внутрішніх потреб та зменшення залежності від зовнішніх постачальників. Amazon представила чип Trainium 2 і заявила, що за рівнем продуктивності він не поступається H100 від Nvidia, але коштує в рази дешевше. Meta почала тестування власного рішення для навчання АІ, щоб скоротити залежність від зовнішніх постачальників, використовуючи прискорювач Meta Training and Inference Accelerator (MTIA) v1, розроблений з урахуванням специфіки навантаження компанії. Google оголосила про запуск Trillium — тензорного процесора, обчислювальні можливості якого дозволяють навчати великі мовні моделі, включно з власною Gemini, а також задовольняти потреби суперкомп’ютера Google Cloud’s AI Hypercomputer. І, нарешті, Microsoft представила АІ-чип Microsoft Azure Maia AI Accelerator, який буде використовувати у своїх дата-центрах, зокрема для підтримки Azure OpenAI.

Які проблеми є на ринку АІ-чипів

Монополізація Nvidia обмежує не тільки компанії, які хочуть створювати нові АІ-застосунки, але й може порушувати антимонопольне законодавство США, як повідомляють у The Guardian. Крім того, компанія зіткнулася зі звинуваченнями у крадіжці патентів, щоправда, через мережеву компанію Mellanox, придбану Nvidia декількома роками раніше.

Крім Nvidia монополістом можна назвати тайванську компанію TSMC, на частку якої припадає 90% всього виробництва мікропроцесорів у світі. Для неї зростаючий попит на АІ-чипи став проблемою: у зв’язку з необхідністю будівництва нових заводів виник дефіцит кваліфікованої робочої сили.

Все це призвело до ситуації, коли попит на АІ-чипи значно перевищує пропозицію. І якщо якійсь компанії знадобиться кілька тисяч топових чипів зі штучним інтелектом, вона може чекати їх місяцями та навіть роками. Оскільки розробка нових генеративних АІ та мультимодальних моделей вимагає колосальних ресурсів, ситуація може погіршитися вже в найближчі квартали. Апаратні можливості просто не встигають за потребами нових моделей і АІ-застосунків.

Найголовніше про АІ-чипиН

а завершення, АІ-чипи прискорюють роботу моделей машинного навчання та обробку природної мови, а GPU, NPU, FPGA та ASIC є ключовими типами процесорів для АІ. Nvidia сьогодні контролює до 90% ринку АІ-чипів, а вартість топових моделей може досягати до 40 000 доларів. Попит на ці рішення випереджає пропозицію на місяці вперед, тоді як великі IT-корпорації активно розробляють власні чипи. Загалом, АІ-чипи стають ядром цифрової трансформації бізнесу.

Bare Metal - знову у фокусі

Bare Metal - технологія не нова, але на тлі зростання популярності AI, ML, обробки великих даних і високонавантажених систем вона знову опинилася у фокусі уваги індустрії. 
 
Нагадаємо, це модель, яка поєднує контроль над фізичним сервером із принципами гнучкості хмарних сервісів, поступово формує новий стандарт у сегменті інфраструктури.
 
Згідно з прогнозами ResearchAndMarkets, до 2028 року обсяг ринку Bare Metal сягне 19 млрд дол., що майже вдвічі більше за показник 2023 року. Причини такого зростання цілком логічні.
 
По-перше, все більше компаній усвідомлюють обмеження традиційних публічних хмар, особливо коли йдеться про критично важливі застосунки з високими вимогами до продуктивності.
 
По-друге, Bare Metal дозволяє зменшити вплив гіпервізорного шару, що означає прямий доступ до всіх ресурсів — процесора, пам’яті, дисків — без витрат на віртуалізацію.
 
По-третє, завдяки погодинній або помісячній моделі оплати цей підхід зручний навіть для динамічних навантажень. Важливо також, що сучасні платформи дозволяють автоматизувати розгортання Bare Metal-серверів практично так само швидко, як і віртуальних машин.
 
У цьому сенсі йдеться не про повернення до «заліза» як такого, а радше про його еволюцію - зручну, прозору та контрольовану.
 
Не менш вагомим є й аспект безпеки: фізична ізоляція середовища дає змогу мінімізувати ризики, що особливо актуально в регульованих індустріях або проєктах, де потрібна сертифікація інфраструктури.
 
За даними Colobridge, попит на такі сервіси стабільно йде у гору, і не в останню чергу через зростання складності інфраструктур: клієнти шукають моделі, в яких можна чітко контролювати всі ланки — від апаратного забезпечення до операційної системи. Це знижує залежність від вендорів і спрощує аудит.
 
Не варто також забувати про гібридні сценарії: саме в комбінації з публічною або приватною хмарою Bare Metal демонструє максимальну гнучкість. Йдеться про можливість використовувати фізичні сервери для обробки важких обчислювальних задач, залишаючи хмару для пікового навантаження або нетривалих проєктів.
 
На практиці це дозволяє оптимізувати як витрати, так і час реакції на зміну вимог бізнесу.
 
У підсумку слід зазначити, що Bare Metal зараз - це відповідь на виклики нової хвилі цифровізації, де зростає значення контролю, продуктивності та адаптивності.
 

AI та Data-driven: виклики для бізнесу

Стрімке поширення штучного інтелекту та аналітики на основі даних (data-driven) радикально змінює принципи ведення бізнесу. З одного боку, технології відкривають нові горизонти ефективності, автоматизації й конкурентних переваг. З іншого — ставлять перед керівниками низку складних викликів, які охоплюють інфраструктуру, культуру, безпеку та управління змінами.
 
Дані — головний актив, але й головний виклик
У центрі будь-якої AI-моделі — якісні й доступні дані. Але більшість компаній не готові до роботи з інформацією на такому рівні. Дані зберігаються у розрізнених системах, часто неструктуровані, дубльовані або застарілі. Це створює перешкоди на шляху до впровадження ефективних аналітичних рішень.
 
Водночас обсяги даних зростають експоненційно. Бізнес має оперативно будувати архітектури, здатні забезпечити їх збирання, зберігання, обробку і захист — і все це з урахуванням вимог до продуктивності та відповідності законодавству (зокрема GDPR).
 
Старі системи — нові загрози
Багато компаній намагаються впроваджувати AI у середовищі, яке технологічно не готове до таких навантажень. Застарілі ERP, відсутність інтеграції між платформами, локальні сервери без масштабованості — усе це гальмує або унеможливлює реалізацію амбітних AI-ініціатив.
 
Щоб не втратити темп, ІТ-департаментам доводиться терміново модернізувати інфраструктуру: переходити на гібридні або хмарні моделі, розміщувати критичні обчислення у високонадійних дата-центрах, забезпечувати безперебійну та безпечну роботу AI-навантажень.
 
Команди, яких ще немає
Технології — лише частина рівняння. Для повноцінної AI-екосистеми потрібні фахівці: аналітики даних, інженери AI/ML, архітектори даних, а також лідери, які вміють поєднувати технічне бачення з бізнес-логікою. Сьогодні це рідкісний і дорогий ресурс. На тлі глобального кадрового дефіциту компанії змушені не лише залучати зовнішніх експертів, а й переосмислювати внутрішню культуру навчання й управління знаннями.
 
Зростає й роль нових функцій у керівництві компаній — таких як Chief Data Officer або Chief AI Officer. Це вже не футуризм, а вимога часу для тих, хто прагне будувати data-driven бізнес.
 
Штучний інтелект = відповідальність
Іще один важливий аспект — етика. AI-рішення впливають на людей, формують автоматизовані рішення, які можуть містити упередження або неочевидні ризики. Бізнес має брати відповідальність за прозорість алгоритмів, пояснюваність моделей, етичне використання персональних даних і відповідність нормативним стандартам.
 
Нова ера стратегій
Сьогодні для компаній ключовим стає не просто «використовувати AI», а інтегрувати його в усі бізнес-процеси — від маркетингу до логістики. Це вимагає цілісного бачення, адаптивної організаційної культури та готовності працювати в умовах високої швидкості змін.
 
Підсумовуючи можна зазначити, що виграють ті, хто не лише інвестує в технології, а й здатен вибудувати навколо них ефективну систему управління, знань, безпеки та рішень. Саме так AI і data-driven перетворюються з модних трендів на реальну конкурентну перевагу.
 

Китайський АІ: що необхідно знати

Китайський АІ входить у нову фазу — масштабування, глобальна конкуренція та технологічна незалежність. Розвиток штучного інтелекту в країні вже не просто національна програма, а фактор впливу на весь світовий технологічний ландшафт. 
 
Одним із найбільш показових прикладів цього стала модель DeepSeek-R1 з відкритим вихідним кодом. Вона отримала понад 2 мільйони завантажень за перший місяць, а її ефективність приголомшила навіть критиків — у 3–5 разів менше обчислювальних ресурсів, ніж у ChatGPT. 
 
Реакція ринку була миттєвою: капіталізація Nvidia тимчасово впала на 600 мільярдів доларів. 
 
Ще одна знакова подія — поява моделі Qwen 2.5 від Alibaba, яка посіла третє місце у глобальному рейтингу Hugging Face, одразу після Anthropic Claude 3 Opus і GPT-4 Turbo. Усе це свідчить: Китай більше не наздоганяє — він формує нові стандарти.
 
Цей шлях Китаю почався не вчора. Ще у 1970-х роках, за часів науково-технічної перебудови Ден Сяопіна, інтелектуальна праця була визнана рушієм розвитку. Але справжній прорив стався після ухвалення державної програми "AI 2030", яка поставила чітку мету: зробити Китай лідером у сфері штучного інтелекту. Відтоді країна стабільно посідає перше місце у світі за кількістю наукових публікацій з АІ. А у 2024 році отримала понад 70% усіх нових патентів у галузі глибинного навчання. На сьогодні в КНР функціонує понад 30 великих AI-компаній, а кількість стартапів перевищила 6000.
 
Рушіями цього прориву стали три ключові фактори. 
 
По-перше, це потужна державна підтримка — уряд офіційно визнав АІ пріоритетом національного масштабу та інвестує понад 150 мільярдів юанів до 2025 року. 
 
По-друге, американські санкції, які обмежили поставки чипів Nvidia, змусили Китай активізувати локальні розробки — Huawei, Loongson та Alibaba вже представили власні процесори, здатні обробляти великі мовні моделі. 
 
І нарешті, третій фактор — внутрішній ринок із понад мільярдом користувачів. Це безпрецедентна перевага, що дозволяє тестувати та масштабувати АІ-рішення у реальних умовах на великій вибірці даних.
 
Китайські гравці зараз задають тон у багатьох напрямках. 
 
Alibaba активно розвиває свої AI-продукти: мовна модель Qwen 2.5-Max навчалась на понад 20 трильйонах токенів і базується на архітектурі Mix-of-Experts, що забезпечує масштабовану продуктивність. Інша модель, QwQ-32B, має 32 мільярди параметрів і демонструє результати, порівнянні з GPT-4 у низці завдань. Компанія також оголосила про інвестиції у розмірі 53 мільярди доларів до 2028 року у хмарні сервіси та штучний інтелект.
 
Tencent інтегрувала свою модель Hunyuan у понад 200 продуктів, зокрема такі популярні сервіси, як WeChat, QQ та Tencent Docs. Новітня версія Hunyuan Turbo S демонструє час відповіді менше однієї секунди, що встановлює новий стандарт продуктивності для корпоративних систем. Крім того, у WeChat запущено пошуковик AI Search, що використовує модель DeepSeek.
 
Baidu утримує позиції завдяки Ernie Bot, яким щодня користуються понад 3 мільйони людей. Наступне покоління — Ernie 5 — перебуває в розробці та буде підтримувати мультимодальність: роботу з текстом, відео й аудіо. Компанія також лідирує у сфері хмарних рішень з глибокою інтеграцією АІ в державний сектор.
 
У ByteDance найбільш популярним продуктом став чат-бот Doubao, що отримав масове поширення в Китаї. Його нова версія, Doubao 1.5-Pro, підтримує персоналізовану взаємодію та обробку до 50 документів одночасно. До 2026 року компанія планує завершити розробку власних AI-чипів для подальшої незалежності від зовнішніх постачальників.
 
DeepSeek є найбільшим open-source проєктом у сфері штучного інтелекту в Китаї. Понад 500 компаній уже використовують модель DeepSeek R1 у продакшені, а версії з інтерфейсами англійською, іспанською та арабською мовами готуються до виходу на міжнародний ринок.
 
SenseTime просуває мультимодальну модель SenseNova 5.5, здатну працювати в режимі реального часу та генерувати відео-аватари. Компанія стала лідером рейтингу SuperCLUE 2025 серед китайських моделей, а також представила інструмент Code Raccoon — конкурента GitHub Copilot для генерації коду.
 
iFlytek розробила SparkDesk 4, який підтримує 74 мови та демонструє високу точність навіть у шумному середовищі. У співпраці з Huawei також запущено платформу OceanStor AI Storage, яка забезпечує обчислення для моделей із понад трильйоном параметрів — зокрема через інфраструктуру Feixing №1.
 
Нарешті, стартап Moonshot привернув увагу моделлю Kimi 1.5, яка поєднує мультимодальність, логіку й можливість обробки файлів. Компанія вже отримала мільярд доларів інвестицій лише за 2024 рік, а відкритий вихідний код став запорукою її швидкої глобалізації.
 
Однак розвиток китайського АІ має й темний бік. У країні діє жорстка цензура — державні моделі фільтрують теми на кшталт протестів на площі Тяньаньмень, Тайваню чи Тибету. Уся індустрія функціонує під контролем держави, а доступ до деяких сервісів жорстко регламентується. США, Тайвань, Австралія й Італія вже ввели обмеження на використання китайських AI-сервісів, побоюючись кіберзагроз і витоку даних.
 
Попри це, економічний ефект від генеративного АІ вражає. За прогнозами Goldman Sachs, до 2026 року він додаватиме 0,2–0,3% до щорічного зростання ВВП Китаю, а до 2030 року технології охоплять понад 40% економіки країни. Уже сьогодні Китай випередив Євросоюз і Британію за кількістю мовних моделей, а його стартапи активно виходять на ринки країн Глобального Півдня — зокрема Бразилії, Індонезії, Кенії та Саудівської Аравії, просуваючи власну модель “АІ-поясу і шляху”.
 
Загалом, китайський АІ вже не доганяє західні технології — він формує альтернативну систему. Стратегічне планування, великі інвестиції, масштаб і готовність ризикувати дають Пекіну шанс вибороти місце у новому технологічному світопорядку. Поки США та Європа обережно регулюють, Китай рухається швидко, масово і прагматично — і це вже приносить відчутні результати.
 

AI агенти — новий великий тренд?

Зараз ми стаємо свідками ще однієї трансформації, пов’язаної зі штучним інтелектом. Наступним етап еволюції АІ, який на думку експертів McKinsey, імовірно, відчутно вплине на використання цієї технології в бізнесі — AI-агенти (AI agents). Саме вони зможуть розкрити весь потенціал генеративного штучного інтелекту.
 
Більшість wow-вражень від взаємодії з АІ сформував GenAI, який став доступним завдяки ChatGPT. Однак агентний АІ не зовсім інноваційна технологія — концепцію агентів описав ще Алан Тюрінг, а програми для гри в шахи, створені в 1960-х, якраз демонстрували роботу типових агентів, які самостійно приймають рішення в обмеженому середовищі.
 
Що таке AI-агенти? В IBM так називають програми, які автономно виконують завдання від імені користувача, самостійно планують кроки до досягнення мети й використовують доступні їм інструменти. А Ларі Хямяляйнен, один зі старших партнерів у McKinsey, використовує цей термін для визначення «програмних сутностей, що організовують складні робочі процеси, координують свої дії, застосовуючи логіку й оцінюючи відповіді». AI агенти здатні як повністю автоматизувати окремі процеси (сам Ларі вважає, що до 2055 року їхній внесок у це сягне 50%), так і доповнювати працівників, як це вже робить GenAI, але більш глибоко занурюючись у задачі.
 
Новий спалах інтересу до AI-агентів виник у 2023-му, коли технологічні лідери почали інвестувати в цю технологію, як це вже зробили Google і Microsoft. Розробкою агентів також займається китайський IT-гігант Baidu, а Meta (Facebook) уже пропонує свій фреймворк LLAMA для створення АІ-агентів. Сем Альтман, засновник OpenAI, упевнений, «що у 2025 році ми можемо побачити перших агентів АІ, які стануть справжньою робочою силою і суттєво змінять результати діяльності компаній».
 
AI-агенти — синоніми інтелектуальної автоматизації, яка вже частково відбувається завдяки GenAI. Але крім автоматизації складних завдань, які зазвичай вимагають втручання людини, AI-агенти відкривають багато інших перспектив, оскільки мають унікальні можливості:
  • розуміють природну мову як інструкції;
  • надають повні, точні та персоналізовані для конкретного користувача відповіді;
  • на кожному наступному кроці вирішення завдання використовують результати попереднього;
  • забезпечують високу продуктивність (особливо мультиагентні системи);
  • працюють з великою різноманітністю інструментів і цифрових екосистем;
  • можуть отримувати дані через фізичні інтерфейси (датчики в IoT-екосистемах);
  • швидко адаптуються до зміни умов завдання.
  • Це дає змогу використовувати AI агентів в найрізноманітніших сферах і отримувати вимірювані результати.
Як і у випадку з GenAI, в основі AI-агентів також лежать великі мовні моделі. Але якщо традиційно вони обмежені конкретним обсягом знань і висновками, агенти самостійно використовують доступні їм інструменти для пошуку й аналізу необхідної інформації. Ба більше, вони прагнуть адаптуватися до вимог і побажань користувача, зберігають усі минулі взаємодії та можуть планувати майбутні дії без втручання людини.
 
Хоча AI агенти автономні в плані ухвалення рішень, цілі, завдання і середовище для роботи, як і раніше, визначають люди. Одна команда проєктує і навчає систему, друга розгортає її та надає зручний інтерфейс роботи з агентом і, нарешті, кінцевий користувач ставить конкретну мету і визначає інструменти, які можна використовувати для її досягнення.
 

Якщо знань AI-агента недостатньо, він звертається до інших агентів, баз даних або використовує веб пошук. Наприклад, якщо користувач доручить AI-агенту вибрати найкращий час для польоту до Парижа на канікули, той вивчить розклади авіакомпаній і знайде прийнятні за ціною і часом прибуття варіанти. Щоб мінімізувати ризики зміни планів, агент самостійно ставить собі таке завдання: вивчити архіви та прогнози погоди та з’ясувати, в який період погодні умови будуть найсприятливішими. Консолідуючи дані з різних джерел, AI агент запропонує користувачеві кілька варіантів дат для вильоту і прибуття.

Якщо порівняти AI-агентів з традиційними генеративними моделями на прикладі ChatGPT від OpenAI, картина буде такою: AI-агенти ще не стали пересічним інструментом у бізнесі, проте найближчим часом усе може змінитися.

Ось чотири приклади, які дозволяють оцінити перспективи використання цієї технології.

Оцінка позичальника в кредитних організаціях. Один агент може взяти на себе комунікацію з потенційним позичальником, щоб отримати від нього якомога більше інформації для прийняття рішення. Другий — збере документи відповідно до вимог і перевірить їх на помилки. Третій — вивчить рух коштів на рахунках позичальника. А четвертий — консолідує цю інформацію і запропонує підсумкове рішення за заявкою.  

Оптимізація ресурсів персоналу у сфері охорони здоров’я. Так само кілька AI-агентів можуть сегментувати пацієнтів у приймальному покої, формуючи черги залежно від причини звернення, а також складати попередні плани їхнього лікування або керувати прийомом лікарських препаратів. Це перекриє дефіцит медичних працівників і підвищить якість обслуговування пацієнтів.

Підвищення ефективності маркетингових кампаній. Маркетолог може надати AI-агенту інформацію про цільових покупців, описати цілі маркетингової кампанії та передбачувані канали взаємодії. А вже агенти розроблять і протестують різні стратегії, використовуючи аналітику по клієнтах, історію комунікацій з ними та дослідження ринку. Окремі агенти допоможуть зі створенням персоналізованого контенту (текстового і візуального), зроблять його відповідним до брендбуку, оцінять ризики для компанії під час реалізації нестандартних ідей.

Погашення технічного боргу. Мультиагентні системи здатні поліпшити процес розробки та оптимізації застосунків. Одні агенти перевірять код на відповідність вимогам, інші виконають роботу QA-фахівця, треті сфокусуються на аналізі загроз, а четверті — поставлять запитання розробнику, щоб швидше досягти поставленої мети й точніше виконати завдання. Модернізація застарілих застосунків і погашення технологічного боргу залишаються серйозними проблемами в IT: за даними McKinsey, понад 70% ПЗ, яке використовують компанії зі списку Fortune 500, було розроблено 20 років тому.
 
Як же працювати з AI-агентами?
 
Є три способи працювати з AI-агентами: через суперплатформи, програмні оболонки та окремі користувацькі інструменти. Суперплатформи являють собою нове покоління бізнес-додатків, де агенти АІ — це одна з багатьох функцій, яку можна використовувати за необхідності. Програмні оболонки працюють зі сторонніми сервісами через API, а користувацькі агенти розробляються індивідуально для конкретної компанії шляхом тонкого налаштування попередньо навченої великої мовної моделі. Якщо перший варіант простіше масштабувати, то останній — більш гнучкий, що підтримує кастомне налаштування. Наприклад, можна створити агентів для кол-центру, які відповідатимуть на запитання клієнтів, використовуючи набори даних про клієнтів компанії, записи попередніх розмов і внутрішні регламенти компанії.
 
AI-агенти перебувають на ранніх етапах розвитку, і їхні можливості ще не реалізовані повною мірою. Але вже зараз бізнесу слід готуватися до розгортання таких систем й розуміти, що для отримання результатів будуть потрібні додаткові ресурси — як обчислювальні, так і людські. Наприклад, нову систему доведеться навчити та багаторазово протестувати, перш ніж вона зможе працювати автономно. Крім цього, бізнес очікують інші виклики, пов’язані з використанням агентів АІ: захист конфіденційних даних, ідентифікація неправдивих або упереджених відповідей, а також технічні складнощі.

На хвилі DeepSeek

DeepSeek зараз не сходить з новин. Як вийшло, що маловідомому китайському стартапу вдалося зробити неймовірне — похитнути трон під США, які дотепер вважалися технологічною столицею світу і лідером в AI-технологіях?
 
Почнемо з того, що для розробки ChatGPT компанія Open AI тільки на старті залучила 1 млрд дол. інвестицій. І ще багато мільярдів — вже після своїх перших успіхів у створенні великих мовних моделей, тільки Microsoft виділили 10 млрд дол. А у 2023-му стало відомо, що ChatGPT щодня обходиться своїм творцям у 700 тисяч дол. До січня 2025-го всі думали, що такі великі витрати не є чимось екстраординарним. А потім з’явився DeepSeek (а точніше, модель DeepSeek R1) — дешевий китайський чат-бот, який на перший погляд не поступається у функціональності ChatGPT і його основним конкурентам.
 
Модель DeepSeek R1 було запущено на початку січня 2025 року — тоді розробники похвалилися в мережі X, що вона справляється із завданнями не гірше, ніж ChatGPT. А саме, може так само писати програмний код, розв’язувати математичні задачі, міркувати на задані користувачем теми й жартувати. І все це - абсолютно безкоштовно.
 
Стартап DeepSeek заснував 2023 року китаєць Лян Веньфен (Liang Wenfeng), який зробив ставку на високопродуктивні графічні процесори та закупив тисячі чіпів Nvidia до того, як їхній експорт зі США до Китаю було заборонено. Наразі процесори Nvidia забезпечують роботу DeepSeek одночасно із дешевшими графічними чипами, однак за іншими даними перших у DeepSeek може бути набагато більше, ніж вони заявляють. Це викликає питання про те, чи справді санкції США у стримуванні китайського прогресу в AI ефективні або ж їх можна обійти.  
 
У Nvidia описали нову розробку як «чудове досягнення АІ», а генеральний директор OpenAI Сем Альтман написав, що «R1 від DeepSeek - вражаюча модель». Саму появу DeepSeek називають «моментом супутника» - за аналогією з першим супутником, запущеним у космос СРСР 1957 року.
 
Слід також зазначити, що DeepSeek R1 - модель штучного інтелекту з відкритим вихідним кодом, яка зʼявилася як сторонній проєкт (хедж-фонду High-Flyer), але зуміла зробити революцію в галузі. 
 
Модель була навчена з використанням понад 2000 відеокарт Nvidia H800 за 55 днів при вартості за 5,6 млн дол.- це в рази менше, ніж витратили на аналогічні рішення у конкурентів.
 
DeepSeek R1 запускає внутрішні процеси пошуку оптимального використання графічних чіпів, щоб отримати результат із найменшим залученням ресурсів (так зване розподілене навчання або Distributed Training). При цьому використовується навчання з підкріпленням (reinforcement learning, RL), яке передбачає винагороду за правильні відповіді й покарання за неправильні. Модель не передбачає будь-яких лімітів на кількість запитів і не знижує продуктивності при інтенсивному навантаженні. І як результат DeepSeek R1 перевершує конкурентів в основних бенчмарках — AIME 2024, MMLU і AlpacaEval 2.0.
 
Крім технічних аспектів є й важливі етичні моменти. Оскільки DeepSeek розроблена китайцями і для китайців, вона цензурує заборонені у цій країні теми — переважно політично чутливий контент. Але це не так важливо, як те, що мобільний застосунок DeepSeek, ймовірно, зберігає великі обсяги даних на китайських серверах, що може стати загрозою конфіденційності для жителів США, Європи та низки інших країн. З іншого боку, відкритий вихідний код моделі R1 дає змогу запускати її таким чином, щоб уникнути надсилання даних до Китаю.
 
Назва DeepSeek уперше голосно прозвучала на Всесвітньому економічному форумі в Давосі, що стартував 20 січня 2025 року. Спочатку її згадали в контексті того, що США слід подвоїти свої зусилля з розвитку AI, а великий інвестор і IT-підприємець Марк Андерссен назвав модель DeepSeek «одним із найдивовижніших і найбільш вражаючих проривів», які він коли-небудь бачив. Уже на третю добу роботи форуму DeepSeek очолив чарти із завантажень в iPhone Apple Inc. і опинився серед лідерів у Google Play. Ринки відреагували негайно: за кілька днів вартість акцій американських і європейських технологічних компаній впала майже на 1 трлн дол. - тільки одна Nvidia Corp. втратила близько 589 млрд дол. (18% капіталізації) за один понеділок, але пізніше частково відновилася. Істотних втрат також зазнали компанії Microsoft і Alphabet (Google).
 
Чи зможе DeepSeek скласти реальну конкуренцію найбільшим гравцям AI-ринку — ще належить дізнатися. Однак основні технологічні гіганти вже мають намір переглянути свої цінові політики і зрозуміти, чи дійсно виправдані їхні величезні витрати на штучний інтелект. Наприклад, для цього Meta Platforms зібрала внутрішню команду для детального аналізу DeepSeek — він дасть змогу зрозуміти, як було створено модель і на що вона насправді здатна. Водночас Ілон Маск, у якого є власна AI-компанія xAI, висловив скептицизм щодо DeepSeek - він підозрює, що у стартапа було набагато більше графічних процесорів Nvidia, ніж заявляють розробники.
 
Нагадаємо, що ажіотаж навколо DeepSeek виник на тлі того, як технологічні гіганти продовжують витрачати мільярди доларів на свої AI-проєкти. Наприклад, тільки 2024 року Amazon інвестувала 75 млрд дол. у комп’ютерні чіпи та центри обробки даних, які обслуговують AI-навантаження. Також 65 млрд дол. на проєкти, пов’язані зі штучним інтелектом, планує виділити Meta. А Microsoft на центри обробки даних для AI — ще 80 млрд дол. При цьому перераховані компанії натрапили на труднощі в монетизації своїх AI-продуктів і не отримують тієї фінансової віддачі, на яку розраховували.

Зараз значна частина величезних витрат технологічних гігантів йде на закупівлю дорогих GPU від Nvidia. Хоча в DeepSeek також залучали графічні прискорювачі саме цього бренду, це не єдиний можливий варіант. Як повідомляють в South China Morning Post, китайські хмарні провайдери (як от SiliconFlow) вже пропонують моделі штучного інтелекту DeepSeek, що використовують обладнання іншого вендора — а саме Huawei Ascend 910B. Воно дозволяє знизити вартість одного мільйону вхідних токенів лише до одного юаню та вихідних — до чотирьох юанів. Це суттєва економія з урахуванням того, що постачальники хмарних послуг в США пропонують рішення на базі DeepSeek R1, яке буде коштувати приблизно 7 дол. за мільйон токенів.

А поки розробники в усьому світі почали експериментувати з DeepSeek і роблять перші спроби створити ефективні інструменти на його базі, у самому стартапі шукають можливість масштабуватися — заборона на експорт із США топових графічних чипів усе ще в силі. У будь-якому разі, поява DeepSeek уже змінила ринок технологій і зміцнила вплив Китаю у глобальну AI-індустрію.

 

Ефективна реалізація стратегії аварійного відновлення

Будь-який бізнес знаходиться в зоні ризику — програми-вимагачі, стихійні лиха, серйозні апаратні та програмні збої — все це може тимчасово, частково або повністю, паралізувати роботу компанії. Щоб швидко повернутися в штатний режим, потрібно мати стратегію аварійного відновлення (Disaster Recovery).

Найбільш розповсюджені причини простоїв, згідно з Uptime Institute —  проблеми з мережею, ПЗ і відключення електроенергії. По інформації Coveware, у результаті атаки програм-вимагачів компанія може простоювати в середньому 16 днів.

Стратегія аварійного відновлення поєднує план аварійного відновлення (DRP, Disaster Recovery Plan), план забезпечення безперервності бізнесу (BCP) і план реагування на інциденти. Вони покривають собою всі незаплановані інциденти, які потенційно можуть призвести до простою: від перебоїв з електропостачанням і стихійних лих до кібератак.

Багато організацій обмежуються тільки DRP, в якому детально описується план дій у разі виникнення різних інцидентів. Розробляють цей план або всередині компанії, або в співавторстві з постачальником рішень по аварійному відновленню.

До нас звертаються як до постачальника експертизи й очікують, що ми не тільки надамо обчислювальні потужності для аварійного відновлення після збою, але і допоможемо з вибором оптимальних параметрів відновлення, а також розробкою плану дій у критичній ситуації. Чому це так важливо? Одна й та сама проблема по-різному впливає на різний бізнес. Однак насправді всі компанії прагнуть одного й того ж. Вони хочуть забезпечити безперервність бізнесу і швидко повернутися до нормальної роботи, уникнувши довгих просторів. Так само вони зацікавлені скоротити матеріальний збиток від простоїв і в цілому зменшити їх кількість і частоту. Особливо високі вимоги висувають компанії, які працюють у регульованих сферах: наприклад, у державному чи фінансовому секторі, але також і ті, де навіть кілька хвилин простою призводять до великих збитків.

Якісно розроблена стратегія аварійного відновлення повинна враховувати якомога більше вірогідних загроз, описувати наслідки їх настання і пропонувати рішення в кожному конкретному випадку. При створенні детальних інструкцій для реагування в критичних ситуаціях зазвичай використовують кілька понять.

●   RTO (Recovery time goal, «цільовий час відновлення») — час, протягом якого IT-системи залишаться недоступними після інциденту.

●   RPO (Recovery point object, «цільова точка відновлення») — період часу, для якого дані можуть бути втрачені. Насправді це дані, які компанія дозволить собі втратити без серйозних збитків.

●   DRaaS (Disaster Recovery as a Service, «аварійне відновлення як сервіс») — послуга аварійного відновлення ІТ-інфраструктури на потужностях постачальника послуг, частіше за все хмарного провайдера. Саме він створює, керує та підтримує інфраструктуру для відновлення роботи сервісів клієнтів, а також надає необхідні програмні інструменти.

За даними Fortune, у 2024 році ринок DRaaS склав 12,8 млрд дол., а до 2032 року сягне 64,4 млрд дол. із середньорічним темпом зростання на 22,4%. Зростанню ринку серед інших факторів сприяє масове впровадження генеративного ШІ.

Ось 5 кроків для реалізації стратегії аварійного відновлення. Ці кроки будуть універсальними для будь-якого бізнесу незалежно від розмірів і сфери діяльності.

Оцінка наслідків загроз
Необхідно зрозуміти, як можливий простій ІТ-інфраструктури вплине на конкретний бізнес. Для цього використовують BIA (Business Impact Analysis) — дослідження наслідків загроз (кібератаки, стихійні лиха, викликані людським фактором та інші помилки) і того, як вони впливають на ключові бізнес-процеси або компанію в цілому. Вона повинна зрозуміти, як простої в роботі можуть трансформуватися в репутаційні та матеріальні втрати. Останні включають як збитки в момент (недоотриманий прибуток), так і штрафи, які накладають регулятори ринку в деяких сферах.

Оцінка ризиків
Вище ми говорили про наслідки певних інцидентів, але яка ймовірність їх настання? Це можна визначити в процесі детального аналізу ризиків RA (Аналіз ризиків), в ході якого окремо розглядається будь-яка загроза та ймовірність її настання.

Оцінка ІТ-активів компанії
Ефективне аварійне відновлення можливо тільки тоді, коли компанія розуміє цінність усіх своїх ІТ-активів. До них відносять числове і мережеве обладнання, програмне забезпечення і все те, що відіграє важливу роль у забезпеченні безперервності бізнесу. Далі виділимо найбільш критичні, важливі й другорядні компоненти. Наприклад, критичними називають ті, що без яких неможливо виконати поточні бізнес-операції, а важливими - те, що компанія використовує принаймні один раз в день.

Призначення нових ролей та обов’язків
Хто буде відповідати за реалізацію плану аварійного відновлення? Вам належить однозначно відповісти на це питання і чітко написати обов’язки цього співробітника. Від цього здебільшого буде залежати швидкість і ефективність післяаварійного відновлення. У великій компанії відповідальних осіб може бути декілька. Наприклад, один співробітник оперативно повідомляє про настання інциденту топ-менеджерам компанії та іншим зацікавленим особам. Менеджер DRP контролює, щоб усі відповіді на аварійне відновлення чітко слідували інструкціям і діяли узгоджено. Менеджер активів забезпечує безпеку критично важливих активів і звітує про їх стан.

Тест і оптимізація
Розробка стратегії аварійного відновлення — не разовий захід. Навіть після того, як ви переконаєтеся в її життєздатності, необхідно буде постійно доробляти й покращувати окремі процеси. І на кожному етапі потрібне тестування в умовах, наближених до реальних. Це допоможе виявити та усунути помилки до настання реального інциденту.

Як дата-центри та енергетичний сектор справляються зі зростаючими потребами AI

Будівництво нових дата-центрів і впровадження AI-рішень у бізнесі неможливі без трансформації енергетичної галузі. 
 
Тільки в США кількість електроенергії, споживаної ЦОД, до кінця десятиліття збільшиться втричі порівняно з сьогоднішніми показниками. А це величезні інвестиції — наприклад, щоб ввести в експлуатацію кілька дата-центрів із сумарним споживанням 50 ГВт, тільки на інфраструктуру знадобиться понад півмільярда доларів! 
 
В історії з розвитком штучного інтелекту енергетичний сектор також задає ритм. Уся справа в обмежених ресурсах: щоб побудувати потужний дата-центр, необхідно масштабувати наявну енергетичну екосистему, яка включає надійні джерела енергії, інфраструктуру, електрообладнання в самих ЦОД, висококваліфіковані кадри. Час на забезпечення електроенергією нового дата-центру може досягати трьох років. Це найслабша ланка в історії з поширенням AI: його потенціал неможливо реалізувати без доступу до відповідної енергетичної інфраструктури. 
 
У McKinsey вважають, що генеративний AI в короткостроковій перспективі допоможе економіці отримати від 2,5 до 4,4 трлн дол. Для цього тільки в США необхідно побудувати кілька дата-центрів сумарною потужністю від 50 до 60 ГВт. У зв'язку з цим уже зростають витрати, які несуть ЦОД, —  у Gartner підрахували, що за останній рік вони збільшилися на 24%! Це прямий вплив GenAI і його «апетитів» щодо обчислювальних потужностей. 
 
Специфіка енергетичних запитів дата-центрів у тому, що вони створюють навантаження на енергосистему порівняно з промисловими підприємствами, які також працюють цілодобово. Наприклад, у ЦОД є резервні системи зберігання енергії для безперервної роботи обладнання, а за електроенергію їхні власники вже платять і далі готові платити більше, ніж у середньому по ринку. 
 
Збільшення навантаження, спровоковане AI, вже спричинило дефіцит обчислювальних потужностей через складнощі з підключенням до нових електромереж. Водночас темпи генерації електроенергії зростають синхронно з кількістю дата-центрів, що вводяться в експлуатацію, — тобто проблема стосується тільки інфраструктури енергоресурсів, а не їхньої кількості. Ще одним стримувальним фактором є складна ситуація з кадрами: для реалізації великих проєктів бракує електромонтерів і робітників на виробничі підприємства, які випускають напівпровідники та акумулятори. 
 
Міжнародне енергетичне агентство (IEA) прогнозує, що глобальний попит на електроенергію в дата-центрах до 2026 року щонайменше подвоїться, переважно через розвиток AI-додатків.
 
Подальше розширення екосистеми дата-центрів залежить не тільки від енергетичного сектору, а й від бажання великих інвесторів брати участь у розв'язанні перерахованих проблем. Вони можуть зробити те, що в кінцевому підсумку допоможе задовольнити попит AI-систем на додаткові обчислювальні потужності. 
 
Необхідні інвестиції в передачу і розподіл електроенергії - не тільки в межах основних ринків ДЦ, а й у нетипових локаціях. Це можуть бути інвестиції в розширення гіперскейлерів, які дедалі частіше будують свої майданчики поруч із дешевими альтернативними джерелами енергії, або в нові дата-центри на ринках, що розвиваються, де менші терміни введення в експлуатацію. Також інвестори шукають можливості для зведення електростанцій, повністю ізольованих від мережі, підвищення щільності розміщення обладнання в наявних дата-центрах або реалізації нетипових рішень — як, наприклад, використання ядерної енергетики.  
 
Найближчим часом інтерес до ядерної енергетики з боку обчислювального сектору може зрости, адже атомні станції надійні, забезпечують стабільну генерацію енергії та пропонують конкурентну ціну. І хоча ядерні проєкти дуже складні та дорогі в реалізації, тривале зростання навантаження (зокрема спричинене AI) може призвести до того, що вони зможуть залучити необхідні інвестиції.
 
Будуть потрібні інвестиції в нові технології, що розвиваються, щоб компенсувати брак критично важливого обладнання. Фінансування насамперед потребують невеликі компанії, які постачають генератори і блоки живлення — без інвесторів вони не зможуть масштабуватися і переорієнтуватися на роботу з гіперскейлерами. Практика збільшення щільності наявних дата-центрів задає тренд на випуск потужнішого обладнання для розміщення в стійках — відповідно, знадобляться ресурси на зміну наявних лінійок продуктів. А переорієнтація на випуск модульних рішень дасть змогу швидше вводити в експлуатацію і масштабувати наявні ЦОД.
 
Тренд на будівництво нових ДЦ у віддалених районах, де немає достатньої кількості фахівців, збігся зі зростаючим дефіцитом на електромонтажників. Це відкриває можливості як для компаній, що займаються пошуком або підготовкою персоналу, так і інвесторів. Вони можуть фінансувати перенесення частини виробничих потужностей за межі основного підприємства, щоб скоротити потребу у фахівцях на місцях, або знаходити нові підходи до пошуку та навчання персоналу. Він, очевидно, стане важливим фактором успіху для ключових гравців у сфері надання обчислювальних ресурсів. 
 
Генеративний AI вплинув на темпи масштабування і введення в експлуатацію обчислювальних потужностей сильніше, ніж будь-яка інша технологія з початку 2000-х. Однак нові дата-центри з'являються не так швидко, як того вимагає технологія, що стрімко розвивається — будівництво енергетичної інфраструктури ведеться дуже повільно. Ситуацію, що склалася, можуть виправити інвестиції в розробку наступних поколінь систем електропостачання та зберігання даних. Це ті галузі, де великі гравці готові платити більше, ніж у середньому по ринку, щоб задовольнити зростаючий попит на обчислювальні ресурси з боку AI-систем.
 
 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT