`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Як захистити бізнес від квантової загрози

Майже усі цифрові сервіси навколо нас захищено шифруванням, створеним ще в минулому столітті. Те, на що класичному комп'ютеру потрібний дуже довгий час, квантовій системі знадобиться  лише кілька годин. Час традиційного криптощита спливає…

Квантові комп'ютери змінять всі правила гри безпеки. Це вже не проблема далекого майбутнього, а поточний ризик, який вимагає негайної реакції прямо зараз.

Безпека широко використовуваного алгоритму RSA залежить від складності розкладання на прості множники дуже великих чисел — задачі, яку звичайний комп’ютер розв’язував би мільярди років.

Повномасштабний квантовий комп’ютер, використовуючи алгоритм Шора, зможе розв’язати цю задачу за лічені години або навіть хвилини, фактично зламавши шифрування. Аналогічно уразлива еліптична криптографія (ECC), яка захищає Bitcoin, банківські системи й більшість HTTPS-з’єднань — квантові комп’ютери зможуть зламати ECC-ключі ще швидше, ніж RSA, через коротшу довжину ключів.

IBM планує створити квантово-центричні суперкомп'ютери з понад 4 тисячами кубітів до кінця цього року і масштабовані системи понад 16 000 кубітів у найближчі кілька років. Google обіцяє відмовостійкий квантовий комп'ютер до 2029-го. Американський уряд уже встановив 2035 рік як крайній термін для переходу федеральних систем на нові методи криптографії. Бізнесу важливо розуміти: квантова загроза — не проблема далекого майбутнього, а поточний ризик, що вимагає негайної реакції.

Уявіть, злочинці перехоплюють вашу зашифровану інформацію вже сьогодні. Банківські транзакції, медичні записи, комерційні таємниці — все це вже в їхніх руках. Вони чекають, поки з'явиться квантовий комп'ютер, щоб розшифрувати дані. HNDL-атаки (harvest-now-decrypt-later) — це вже реальність, на яку посилаються 65% компаній у своїх звітах про ризики.

Дані з довгим життєвим циклом представляють особливу загрозу. Фінансові архіви мають залишатися конфіденційні десятиліття, медкартки — усе життя. Це означає, що інформація, яку перехопить зловмисник сьогодні, може стати вразливою через роки. 

Пост квантова криптографія (PQC) — це новий стандарт захисту, що залишатиметься надійним як проти класичних, так і проти квантових атак.

У серпні 2024 року американський Національний інститут стандартів і технологій (NIST) затвердив перші три стандарти: ML-KEM, ML-DSA та SLH-DSA. Вони замінять усе — від HTTPS до банківських підписів. 

Ці стандарти визначають, як буде захищена вся цифрова інфраструктура в квантову епоху. Наприклад, FIPS 203 замінить механізми обміну ключами в HTTPS, VPN і месенджерах — всюди, де встановлюються зашифровані з’єднання. FIPS 204 стане основою для цифрових підписів у банківських транзакціях, електронних документах та оновленнях програмного забезпечення. А FIPS 205 служить резервним стандартом на випадок, якщо основний алгоритм буде скомпрометований.

Але головна проблема: повна міграція на нові стандарти займе до 12 років. Це не просто оновлення алгоритму, а повна модернізація криптографічної інфраструктури, яка потребує серйозних ресурсів.
За даними Capgemini, 70% великих організацій готуються до переходу на PQC. Але на ці цілі виділяється лишень 2% кошторису кібербезпеки. Рынок пост квантової криптографії вже оцінюється в 301,5 млн дол. До 2033 року його вартість сягне 9,4 млрд дол. — це зростання на 44,1% щорічно.

Переходити на нові стандарти нелегко, але можливо. Почніть з аудиту всіх систем, що використовують RSA та ECC. Перевірте веб-сервери, VPN, електронні підписи, API, бази даних, мобільні додатки. Далі пріоритизуйте роботу — почніть із систем, дані яких мають довгий цикл життя, адже саме вони найбільше загрожені атакам HNDL.

На третьому етапі тестуйте нові стандарти. Вони готові до використання, але їхня інтеграція може виявити непередбачені проблеми. Нові алгоритми створюють більше навантаження на процесори, збільшують розмір ключів. Обов'язково тестуйте в ізольованому середовищі, не в production-оточенні.

Пост квантова криптографія — це не просто технічне оновлення, це зміна парадигми безпеки. Кожен місяць зволікання збільшує ризики. Зловмисники вже збирають ваші зашифровані дані, розраховуючи розшифрувати їх майбутніми квантовими комп’ютерами. А складність переходу означає, що компанії, які почали раніше, отримають конкурентну перевагу в безпеці та зможуть спокійно планувати бізнес на десятиліття вперед.

Кінець епохи GUI? Чому розмовна комерція стає все більш актуальною

Здається, ми наближаємося до моменту, коли традиційний графічний інтерфейс (GUI) в електронній комерції починає поступатися місцем чомусь більш природному, але технічно значно складнішому. Йдеться про розмовну комерцію, або Conversational Commerce, яка у 2025 році перестала бути просто маркетинговою «фішкою» і перетворилася на серйозний інженерний виклик. 

Якщо раніше шлях користувача був лінійною послідовністю кліків по каталогах, фільтрах та формах, то сьогодні він трансформується у неструктурований потік запитів природною мовою. Для бізнесу це інструмент підвищення конверсії та персоналізації, але для ІТ-фахівців це означає фундаментальну зміну архітектури взаємодії систем, де звичні патерни проєктування інтерфейсів більше не працюють.

Варто зазирнути «під капот» цього процесу, щоб зрозуміти масштаб змін. Розмовна комерція - це не просто чат-бот, прикручений до сайту через віджет. Це зміна парадигми, де Frontend фактично перетворюється на діалог, а Backend - на складну систему оркестрації в реальному часі. Коли користувач пише запит на кшталт «Хочу замовити піцу як завжди» або «Потрібен телевізор для PS5 до 20 тисяч гривень», система має виконати миттєвий і складний ланцюжок дій, який раніше виконував сам користувач вручну. Спочатку модуль NLU (Natural Language Understanding) повинен розібрати інтент та витягти сутності з неструктурованого тексту. Далі вмикається механізм Context Awareness, який звертається до CRM, щоб згадати історію попередніх замовлень та вподобання клієнта. Лише після цього система робить запит до ERP або PIM-системи для перевірки наявності товару та актуальної ціни, і фіналізує процес ініціацією транзакції через API платіжного шлюзу безпосередньо у вікні чату. Вся ця магія має відбуватися в «одному вікні» - будь то WhatsApp, Messenger чи власний застосунок - без жодних редіректів чи перемикань контексту.

Головною вимогою до такої архітектури стає швидкість реакції, що висуває безпрецедентні вимоги до інфраструктури. У звичайному веб-інтерфейсі користувач готовий чекати завантаження сторінки секунду-дві, але в розмові пауза в 3-5 секунд сприймається як «система зависла» або ігнорування співрозмовника. Тому питання латентності (latency) стає критичним. На відміну від класичних запитів до бази даних, інференс AI-моделей вимагає значних обчислювальних потужностей. Георозподілені ресурси, оптимізовані API-шлюзи та використання спеціалізованого обладнання стають необхідністю. Хмарні провайдери у цьому контексті виступають вже не просто хостингом, а гарантом того, що пікове навантаження на AI-моделі не покладе основні бізнес-процеси, а час від запиту до відповіді буде вимірюватися мілісекундами.

Окремим шаром складності лежить безпека та відповідність стандартам (Compliance). Оскільки діалог у розмовній комерції неминуче містить персональні дані, адреси доставки та платіжні реквізити, питання відповідності GDPR та PCI DSS виходять на перший план. Інженерам доводиться вирішувати нетривіальну задачу: як забезпечити персоналізацію відповідей моделі, не «згодовуючи» їй чутливі дані, які можуть стати джерелом витоку. Шифрування даних у стані спокою та під час передачі, а також чітке розмежування контурів обробки даних стають обов'язковими елементами архітектури.

Крім того, ІТ-команди стикаються з проблемою «галюцинацій» та недетермінованості великих мовних моделей. Головний біль інженерів, що впроваджують LLM в e-commerce - це ризик того, що чат-бот вигадає неіснуючу знижку, переплутає характеристики товару або пообіцяє доставку туди, куди логістика не дістає. Тому у 2025 році фокус розробки зміщується з самого впровадження АІ на побудову надійних «запобіжників» (guardrails) — проміжних шарів програмного забезпечення, які верифікують відповідь моделі на фактологічну точність та відповідність бізнес-правилам перед тим, як віддати її клієнту.

Розмовна комерція є логічною еволюцією API-економіки та хмарних технологій. Для бізнесу це означає продажі 24/7 без участі людей, а для ІТ-департаментів - нові виклики з безшовної інтеграції CRM, платіжних систем та AI-моделей в єдиний контур. Виграє у цій гонці той, хто зможе забезпечити цьому «діалогу» надійний бекенд: швидкий, безпечний, масштабований і, що найважливіше, контрольований.

RegTech: революція в автоматизації комплаєнсу

Глобальний ринок регуляторних технологій (RegTech) ще кілька років тому здавався нішевим. Сьогодні цифри говорять самі за себе: за оцінками Fortune Business Insights, у 2024 році він становив 15,8 млрд дол., а до 2032-го може зрости до 82,8 млрд дол. Тобто фактично в п’ять разів. І причина тут проста — автоматизація у сфері комплаєнсу стає критичною.

Поштовхом для RegTech стала фінансова криза 2008 року. Тоді регулятори у всьому світі наклали на банки тисячі нових вимог. Витрати на дотримання правил почали “з’їдати” до 10–15% операційних бюджетів, і стало зрозуміло: без IT цю машину не зрушити.

RegTech (Regulatory Technology) — це IT-рішення, що автоматизують виконання регуляторних вимог. Якщо FinTech — це про цифрові платежі, мобільний банкінг чи P2P-кредити, то RegTech — вузька спеціалізація всередині фінтеху, яка зосереджена виключно на комплаєнсі.

Де застосовується
  • Регуляторна звітність. Автоматичний збір та формування даних у потрібному форматі.
  • Управління ризиками. Моніторинг у реальному часі для виявлення шахрайства чи аномалій.
  • KYC/AML. Перевірка клієнтів і транзакцій на відповідність правилам.
  • Моніторинг законодавства. Відстеження змін і синхронне оновлення внутрішніх процедур.

Технологічний стек тут цілком сучасний: хмарні обчислення, великі дані, штучний інтелект, машинне навчання. Все, що дозволяє швидко обробляти гігабайти інформації й працювати без збоїв 24/7.

RegTech-рішення — це класика високонавантажених систем. Вони працюють із чутливими даними, тому потребують максимальної надійності та захисту. Не дивно, що хмари стали стандартом для їхнього розгортання.

Навіщо бізнесу? Для банків та страхових компаній - це вже must-have. Але завдяки хмарним SaaS-рішенням RegTech поступово стає доступним і для малого та середнього бізнесу.

Основні плюси очевидні. Перш за все — скорочення витрат на комплаєнс та більш швидкі та більш точні звіти. Крім того — мінімізація людських помилок та готовність до нових регуляторних вимог без стресу.

Наступний етап — предиктивна аналітика та AI, яка дозволить перейти від “реактивного” комплаєнсу (коли бізнес реагує на нові правила) до “проактивного” управління ризиками
 

Квантова ера вже тут?

Квантова індустрія, що включає обчислення, комунікацію та сенсори, переживає справжній бум. Це не лише технологічні прориви, а й рекордні інвестиції, що підживлюють стрімкий розвиток стартапів. Завдяки цій динаміці квантові технології поступово виходять із наукових лабораторій і стають частиною глобальної економіки.

Незважаючи на те, що у 2023 році загальні інвестиції в квантові стартапи дещо знизилися (на 27%), загальний обсяг фінансування залишається вражаючим. У квантові обчислення було вкладено 6,7 млрд дол., у квантову комунікацію – 1,2 млрд дол., а в квантові сенсори – 0,7 млрд дол.. Інвестори продовжують демонструвати оптимізм щодо майбутнього цієї індустрії.

Прогнози щодо зростання ринку квантових обчислень виглядають ще більш вражаюче. За оцінками Fortune Business Insights, ринок зросте з 928,8 млн дол. до 6,5 млрд дол. до 2030 року, демонструючи сукупний річний темп зростання 32,1%. У довгостроковій перспективі, до 2040 року, ринок може сягнути від 45 до 131 млрд дол..

Хто ж ключові гравці в цьому сегменті?

Індустрія квантових технологій сьогодні – це симбіоз великих корпорацій та інноваційних стартапів. Такі гіганти, як Google, Microsoft та IBM, розробляють власне обладнання, програмне забезпечення та платформи. При цьому на ринку квантових обчислень вже існує понад 261 стартап, що пропонують рішення у цих сферах.

Багато компаній активно розвивають концепцію «Квантові обчислення як послуга» (QaaS), надаючи доступ до своїх хмарних платформ. Це дозволяє підприємствам і дослідникам використовувати потужність квантових комп’ютерів без необхідності купувати дороге обладнання.

Гонка за квантове лідерство відбувається по всьому світу. США очолюють рейтинг за кількістю патентів, тоді як Китай демонструє значні державні інвестиції та нарощує дослідницьку активність.

Франція, Німеччина, Великобританія та Нідерланди мають потужні державні програми фінансування та інноваційні центри. Євросоюз та Великобританія є лідерами за кількістю та щільністю кваліфікованих фахівців.

Індія запустила Національну квантову місію, а Ізраїль створив консорціум для дослідження кубітів.

Інноваційні кластери стають центрами розвитку квантових технологій, серед яких виділяються Париж, Делфт, а також дослідницькі центри в Хефеї (Китай) та Національному університеті Тайваню.

Попри стрімкий розвиток, квантова індустрія стикається з серйозними викликами: високою вартістю, труднощами з масштабуванням і потребою в корекції помилок. Найбільш критичною проблемою є дефіцит талантів. За прогнозами McKinsey, до 2025 року менше половини робочих місць у квантовій сфері будуть заповнені.

Однак хоча технологія ще перебуває на початковій стадії, у деяких сегментах її вже успішно застосовують для вирішення надскладних завдань.

Фармацевтика: У сфері розробки нових ліків традиційні комп’ютери неспроможні моделювати поведінку складних молекул з потрібною точністю. Квантові обчислення дозволяють проводити більш точну симуляцію молекулярних взаємодій, значно прискорюючи процес відкриття нових медичних препаратів та персоналізованої медицини. Фармацевтичні гіганти вже співпрацюють з квантовими компаніями, щоб досліджувати нові сполуки та їх властивості.

Фінансовий сектор: Для банків та інвестиційних фондів надважливими є оптимізація портфеля, ціноутворення деривативів та виявлення шахрайства. JPMorgan Chase, наприклад, досліджує застосування квантових алгоритмів для оптимізації фінансових портфелів, що вимагає аналізу величезної кількості змінних. Квантові обчислення можуть швидко знайти оптимальні рішення, які є недоступними для класичних систем, дозволяючи максимізувати прибуток і мінімізувати ризики.

Коли ж квантові обчислення стануть мейнстримом? Експерти вважають, що для їхнього широкого впровадження може знадобитися ще 15-20 років, але корисні застосунки для вирішення конкретних завдань можуть з'явитися значно раніше. Таким чином, нинішня ера – це час активного розвитку, значних інвестицій та цілеспрямованої роботи над подоланням технічних викликів.
 

Чому АІ-чіпи стали новим золотом технологічного ринку

За підсумками минулого року ринок АІ-чипів оцінювався у 71 млрд дол. за даними Statista, а до початку 2026 року може збільшитися на 30%. Для цього є всі умови: попит на рішення Nvidia продовжує зростати, і компанія зберігає лідерство в галузі, попри посилення конкуренції. 

На тлі зростаючого інтересу до штучного інтелекту в цілому (і тренду на АІ-агентів зокрема) ця тенденція лише посилиться, стимулюючи подальші інновації та конкуренцію серед виробників. 

Чому з’явилися спеціалізовані чипи для АІД

райвером ринку стало лавиноподібне зростання завдань штучного інтелекту, для яких потрібні масштабні паралельні обчислення. Традиційні процесорні й графічні чипи перестали справлятися з цим навантаженням, включно з тими, що були розроблені спеціально для рендерингу графіки. Так з’явилася нова вільна ніша: АІ-чипи і від них багато в чому залежить майбутнє АІ. Як стверджує професор Іллінойського університету Нареш Шанбхаг (Naresh Shanbhag), «оскільки передові технології продовжують розвиватися і змінюватися, то й апаратне забезпечення повинно змінюватися і слідувати за ними».

Цей попит підтверджується і недавніми новинами. Так, компанія ASML, ключовий постачальник обладнання для виробництва чипів, повідомила про зростання квартальних продажів у річному вимірі на 24,2% у другому кварталі 2025 року, що є прямим наслідком величезного попиту на чипи для АІ. Крім того, Meta Platforms Inc. нещодавно оголосила про інвестиції в «сотні мільярдів доларів» у будівництво нових мультигігаватних центрів обробки даних, повністю орієнтованих на розвиток штучного інтелекту. Це демонструє не лише поточний, а й майбутній колосальний попит на спеціалізовані АІ-чипи.

Що таке АІ-чипиА

І-чипи – це не просто одна категорія, а цілий спектр спеціалізованих процесорів (як-от NPU, ASIC та FPGA), які значно відрізняються від універсальних CPU (центральних процесорів) та навіть від GPU (графічних процесорів), що були адаптовані для завдань штучного інтелекту. Якщо CPU – це "мозок" комп'ютера, який чудово справляється з послідовними операціями та загальними завданнями, то GPU, з тисячами своїх ядер, відмінно підходить для паралельних обчислень, що лежать в основі графіки та машинного навчання.

Натомість, справжні АІ-чипи розроблені з нуля або глибоко оптимізовані саме для специфічних операцій штучного інтелекту. Вони забезпечують безпрецедентну швидкість та енергоефективність у своїх цільових АІ-завданнях, будь то розпізнавання мови чи обробка зображень. Це дозволяє їм перевершувати CPU та навіть GPU у конкретних сценаріях, що робить їх ключовим елементом сучасної АІ-інфраструктури.
Які бувають АІ-чипи та чим вони відрізняються
Виділяють кілька типів чипів з підтримкою штучного інтелекту, які відрізняються конструктивно або сферою застосування. Розгляньмо, чим відрізняються GPU, NPU, FPGA та ASIC для АІ, і для яких сценаріїв найкраще підходить кожен тип.

GPU (графічні процесори або ж графічні прискорювачі) — це мікрочипи, початково створені для ефективної обробки комп’ютерної графіки, наприклад, відеоігор або рендерингу. Пізніше їх стали використовувати для навчання АІ-моделей. Вони мають високу швидкість АІ-обчислень, середню гнучкість і середню енергоефективність, використовуються для навчання LLM, генеративного АІ та візуалізації.

FPGA (програмовані користувачем вентильні матриці) — це мікропроцесори з «гіперспеціалізацією», тобто підтримують перепрограмування під конкретне завдання. Такі чипи адаптують під конкретні застосунки, наприклад, пов’язані з обробкою відео, щоб отримати максимум віддачі. Вони відзначаються дуже високою гнучкістю, середньо-високою швидкістю АІ-обчислень та високою енергоефективністю за умови правильного налаштування, ідеально підходять для відеоаналітики, edge-комп’ютингу та 5G.

ASIC (інтегральні схеми спеціального призначення) — це мікропроцесори, які найкраще проявили себе в АІ-застосунках, але при цьому їх не можна перепрограмувати, як FPGA. Типовий приклад ASIC — тензорний процесор Google, він же TPU (Tensor Processing Unit). Вони мають низьку гнучкість, дуже високу швидкість АІ-обчислень та дуже високу енергоефективність, і є високопродуктивними АІ-чипами «під ключ». Прикладом є Google TPU та Amazon Inferentia.

NPU (нейронні процесори) — це чипи, створені для глибокого навчання і роботи з нейронними мережами. Вони виконують складні завдання швидше, ніж інші типи чипів, включно з розпізнаванням зображень, редагуванням відео або обробкою природної мови. NPU мають середню гнучкість, є оптимізованими під нейромережі та глибоке навчання, забезпечують максимальну швидкість у нейромережевих завданнях та дуже високу енергоефективність, використовуються для обробки відео, NLP та у смартфонах.

Які основні особливості АІ-чипівЄ

кілька властивостей, які виділяють АІ-чипи на тлі традиційних процесорів, включно з тими, що спочатку адаптовані під високі навантаження.

Швидкість обчислень: Чипи зі штучним інтелектом використовують паралельні обчислення, тобто обробляють дані паралельно, розбиваючи великі завдання на тисячі й мільйони маленьких. Традиційні процесори виконують таке ж об’ємне завдання повільніше, використовуючи послідовні обчислення.

Точність: АІ-чипи перевершують традиційні мікропроцесори не тільки у швидкості, але й у точності — тобто роблять менше помилок. Це дозволяє використовувати їх в обчисленнях з високою ціною помилки: медичних, фінансових, пов’язаних з управлінням автономного транспорту.

Адаптивність: АІ-чипи можна налаштувати таким чином, щоб вони найкращим чином виконували одне пріоритетне завдання. Наприклад, забезпечували навчання нової моделі або аналіз великих обсягів даних.

Енергоефективність: Сучасні АІ-чипи споживають менше енергії, а значить, більш економічні — завдяки оптимізованій архітектурі, що дозволяє ефективно використовувати енергію при високих навантаженнях. І це не тільки економічний ефект: дата-центри, орієнтовані на АІ-навантаження, залишають менший вуглецевий слід.

Через те, що різні мікропроцесори відрізняються продуктивністю та іншими параметрами, не можна однозначно відповісти на питання про те, скільки коштують АІ-чипи. В середньому ціна на топові рішення від Nvidia на кшталт H100 варіюється від 30 000 до 40 000 доларів, на споживчі, як GeForce RTX 4090 та 5090 — до 2000 доларів.

Які компанії виробляють АІ-чипиП

оряд з лідерами ринку є поки що маловідомі рішення, які також варті уваги. Подивимось, хто зараз займається розробкою АІ-чипів і досяг певних результатів.

Nvidia — безумовний лідер ринку. Компанія контролює зараз від 75% до 90% ринку АІ-чипів, хоча й стикається з високою конкуренцією. А її капіталізація за короткий час, майже за декілька років, зросла до 4 трлн дол. Успіх пояснюється декількома причинами: універсальна масштабована архітектура, дуже добре розвинена екосистема для АІ-розробки й швидка реакція — компанія зробила ставку на АІ раніше за конкурентів.

AMD — другий гравець на ринку АІ-чипів після Nvidia. Причому компанія випускає, як спеціалізовані процесори під АІ як для персональних компʼютерів так і серверні рішення.

Intel — компанія спробувала увірватися на ринок зі своїм продуктом Gaudi 3, але була змушена зменшити свої амбіції, оскільки його продажі не виправдали очікувань. На думку експертів, цей мікрочип гірше підходить для навчання великих мовних моделей, ніж рішення конкурентів Nvidia та AMD.

Huawei — нещодавно розробила чип Ascend 910D, який може конкурувати за продуктивністю з H100 від Nvidia.

Qualcomm — інтегрує АІ прямо в мобільні чипсети, що дозволяє обробляти дані локально — без відправки в хмару.

Хто розробляє АІ-чипи для своїх завданьВ

еликі IT-корпорації також активно розробляють власні чипи для задоволення внутрішніх потреб та зменшення залежності від зовнішніх постачальників. Amazon представила чип Trainium 2 і заявила, що за рівнем продуктивності він не поступається H100 від Nvidia, але коштує в рази дешевше. Meta почала тестування власного рішення для навчання АІ, щоб скоротити залежність від зовнішніх постачальників, використовуючи прискорювач Meta Training and Inference Accelerator (MTIA) v1, розроблений з урахуванням специфіки навантаження компанії. Google оголосила про запуск Trillium — тензорного процесора, обчислювальні можливості якого дозволяють навчати великі мовні моделі, включно з власною Gemini, а також задовольняти потреби суперкомп’ютера Google Cloud’s AI Hypercomputer. І, нарешті, Microsoft представила АІ-чип Microsoft Azure Maia AI Accelerator, який буде використовувати у своїх дата-центрах, зокрема для підтримки Azure OpenAI.

Які проблеми є на ринку АІ-чипів

Монополізація Nvidia обмежує не тільки компанії, які хочуть створювати нові АІ-застосунки, але й може порушувати антимонопольне законодавство США, як повідомляють у The Guardian. Крім того, компанія зіткнулася зі звинуваченнями у крадіжці патентів, щоправда, через мережеву компанію Mellanox, придбану Nvidia декількома роками раніше.

Крім Nvidia монополістом можна назвати тайванську компанію TSMC, на частку якої припадає 90% всього виробництва мікропроцесорів у світі. Для неї зростаючий попит на АІ-чипи став проблемою: у зв’язку з необхідністю будівництва нових заводів виник дефіцит кваліфікованої робочої сили.

Все це призвело до ситуації, коли попит на АІ-чипи значно перевищує пропозицію. І якщо якійсь компанії знадобиться кілька тисяч топових чипів зі штучним інтелектом, вона може чекати їх місяцями та навіть роками. Оскільки розробка нових генеративних АІ та мультимодальних моделей вимагає колосальних ресурсів, ситуація може погіршитися вже в найближчі квартали. Апаратні можливості просто не встигають за потребами нових моделей і АІ-застосунків.

Найголовніше про АІ-чипиН

а завершення, АІ-чипи прискорюють роботу моделей машинного навчання та обробку природної мови, а GPU, NPU, FPGA та ASIC є ключовими типами процесорів для АІ. Nvidia сьогодні контролює до 90% ринку АІ-чипів, а вартість топових моделей може досягати до 40 000 доларів. Попит на ці рішення випереджає пропозицію на місяці вперед, тоді як великі IT-корпорації активно розробляють власні чипи. Загалом, АІ-чипи стають ядром цифрової трансформації бізнесу.

Bare Metal - знову у фокусі

Bare Metal - технологія не нова, але на тлі зростання популярності AI, ML, обробки великих даних і високонавантажених систем вона знову опинилася у фокусі уваги індустрії. 
 
Нагадаємо, це модель, яка поєднує контроль над фізичним сервером із принципами гнучкості хмарних сервісів, поступово формує новий стандарт у сегменті інфраструктури.
 
Згідно з прогнозами ResearchAndMarkets, до 2028 року обсяг ринку Bare Metal сягне 19 млрд дол., що майже вдвічі більше за показник 2023 року. Причини такого зростання цілком логічні.
 
По-перше, все більше компаній усвідомлюють обмеження традиційних публічних хмар, особливо коли йдеться про критично важливі застосунки з високими вимогами до продуктивності.
 
По-друге, Bare Metal дозволяє зменшити вплив гіпервізорного шару, що означає прямий доступ до всіх ресурсів — процесора, пам’яті, дисків — без витрат на віртуалізацію.
 
По-третє, завдяки погодинній або помісячній моделі оплати цей підхід зручний навіть для динамічних навантажень. Важливо також, що сучасні платформи дозволяють автоматизувати розгортання Bare Metal-серверів практично так само швидко, як і віртуальних машин.
 
У цьому сенсі йдеться не про повернення до «заліза» як такого, а радше про його еволюцію - зручну, прозору та контрольовану.
 
Не менш вагомим є й аспект безпеки: фізична ізоляція середовища дає змогу мінімізувати ризики, що особливо актуально в регульованих індустріях або проєктах, де потрібна сертифікація інфраструктури.
 
За даними Colobridge, попит на такі сервіси стабільно йде у гору, і не в останню чергу через зростання складності інфраструктур: клієнти шукають моделі, в яких можна чітко контролювати всі ланки — від апаратного забезпечення до операційної системи. Це знижує залежність від вендорів і спрощує аудит.
 
Не варто також забувати про гібридні сценарії: саме в комбінації з публічною або приватною хмарою Bare Metal демонструє максимальну гнучкість. Йдеться про можливість використовувати фізичні сервери для обробки важких обчислювальних задач, залишаючи хмару для пікового навантаження або нетривалих проєктів.
 
На практиці це дозволяє оптимізувати як витрати, так і час реакції на зміну вимог бізнесу.
 
У підсумку слід зазначити, що Bare Metal зараз - це відповідь на виклики нової хвилі цифровізації, де зростає значення контролю, продуктивності та адаптивності.
 

AI та Data-driven: виклики для бізнесу

Стрімке поширення штучного інтелекту та аналітики на основі даних (data-driven) радикально змінює принципи ведення бізнесу. З одного боку, технології відкривають нові горизонти ефективності, автоматизації й конкурентних переваг. З іншого — ставлять перед керівниками низку складних викликів, які охоплюють інфраструктуру, культуру, безпеку та управління змінами.
 
Дані — головний актив, але й головний виклик
У центрі будь-якої AI-моделі — якісні й доступні дані. Але більшість компаній не готові до роботи з інформацією на такому рівні. Дані зберігаються у розрізнених системах, часто неструктуровані, дубльовані або застарілі. Це створює перешкоди на шляху до впровадження ефективних аналітичних рішень.
 
Водночас обсяги даних зростають експоненційно. Бізнес має оперативно будувати архітектури, здатні забезпечити їх збирання, зберігання, обробку і захист — і все це з урахуванням вимог до продуктивності та відповідності законодавству (зокрема GDPR).
 
Старі системи — нові загрози
Багато компаній намагаються впроваджувати AI у середовищі, яке технологічно не готове до таких навантажень. Застарілі ERP, відсутність інтеграції між платформами, локальні сервери без масштабованості — усе це гальмує або унеможливлює реалізацію амбітних AI-ініціатив.
 
Щоб не втратити темп, ІТ-департаментам доводиться терміново модернізувати інфраструктуру: переходити на гібридні або хмарні моделі, розміщувати критичні обчислення у високонадійних дата-центрах, забезпечувати безперебійну та безпечну роботу AI-навантажень.
 
Команди, яких ще немає
Технології — лише частина рівняння. Для повноцінної AI-екосистеми потрібні фахівці: аналітики даних, інженери AI/ML, архітектори даних, а також лідери, які вміють поєднувати технічне бачення з бізнес-логікою. Сьогодні це рідкісний і дорогий ресурс. На тлі глобального кадрового дефіциту компанії змушені не лише залучати зовнішніх експертів, а й переосмислювати внутрішню культуру навчання й управління знаннями.
 
Зростає й роль нових функцій у керівництві компаній — таких як Chief Data Officer або Chief AI Officer. Це вже не футуризм, а вимога часу для тих, хто прагне будувати data-driven бізнес.
 
Штучний інтелект = відповідальність
Іще один важливий аспект — етика. AI-рішення впливають на людей, формують автоматизовані рішення, які можуть містити упередження або неочевидні ризики. Бізнес має брати відповідальність за прозорість алгоритмів, пояснюваність моделей, етичне використання персональних даних і відповідність нормативним стандартам.
 
Нова ера стратегій
Сьогодні для компаній ключовим стає не просто «використовувати AI», а інтегрувати його в усі бізнес-процеси — від маркетингу до логістики. Це вимагає цілісного бачення, адаптивної організаційної культури та готовності працювати в умовах високої швидкості змін.
 
Підсумовуючи можна зазначити, що виграють ті, хто не лише інвестує в технології, а й здатен вибудувати навколо них ефективну систему управління, знань, безпеки та рішень. Саме так AI і data-driven перетворюються з модних трендів на реальну конкурентну перевагу.
 

Китайський АІ: що необхідно знати

Китайський АІ входить у нову фазу — масштабування, глобальна конкуренція та технологічна незалежність. Розвиток штучного інтелекту в країні вже не просто національна програма, а фактор впливу на весь світовий технологічний ландшафт. 
 
Одним із найбільш показових прикладів цього стала модель DeepSeek-R1 з відкритим вихідним кодом. Вона отримала понад 2 мільйони завантажень за перший місяць, а її ефективність приголомшила навіть критиків — у 3–5 разів менше обчислювальних ресурсів, ніж у ChatGPT. 
 
Реакція ринку була миттєвою: капіталізація Nvidia тимчасово впала на 600 мільярдів доларів. 
 
Ще одна знакова подія — поява моделі Qwen 2.5 від Alibaba, яка посіла третє місце у глобальному рейтингу Hugging Face, одразу після Anthropic Claude 3 Opus і GPT-4 Turbo. Усе це свідчить: Китай більше не наздоганяє — він формує нові стандарти.
 
Цей шлях Китаю почався не вчора. Ще у 1970-х роках, за часів науково-технічної перебудови Ден Сяопіна, інтелектуальна праця була визнана рушієм розвитку. Але справжній прорив стався після ухвалення державної програми "AI 2030", яка поставила чітку мету: зробити Китай лідером у сфері штучного інтелекту. Відтоді країна стабільно посідає перше місце у світі за кількістю наукових публікацій з АІ. А у 2024 році отримала понад 70% усіх нових патентів у галузі глибинного навчання. На сьогодні в КНР функціонує понад 30 великих AI-компаній, а кількість стартапів перевищила 6000.
 
Рушіями цього прориву стали три ключові фактори. 
 
По-перше, це потужна державна підтримка — уряд офіційно визнав АІ пріоритетом національного масштабу та інвестує понад 150 мільярдів юанів до 2025 року. 
 
По-друге, американські санкції, які обмежили поставки чипів Nvidia, змусили Китай активізувати локальні розробки — Huawei, Loongson та Alibaba вже представили власні процесори, здатні обробляти великі мовні моделі. 
 
І нарешті, третій фактор — внутрішній ринок із понад мільярдом користувачів. Це безпрецедентна перевага, що дозволяє тестувати та масштабувати АІ-рішення у реальних умовах на великій вибірці даних.
 
Китайські гравці зараз задають тон у багатьох напрямках. 
 
Alibaba активно розвиває свої AI-продукти: мовна модель Qwen 2.5-Max навчалась на понад 20 трильйонах токенів і базується на архітектурі Mix-of-Experts, що забезпечує масштабовану продуктивність. Інша модель, QwQ-32B, має 32 мільярди параметрів і демонструє результати, порівнянні з GPT-4 у низці завдань. Компанія також оголосила про інвестиції у розмірі 53 мільярди доларів до 2028 року у хмарні сервіси та штучний інтелект.
 
Tencent інтегрувала свою модель Hunyuan у понад 200 продуктів, зокрема такі популярні сервіси, як WeChat, QQ та Tencent Docs. Новітня версія Hunyuan Turbo S демонструє час відповіді менше однієї секунди, що встановлює новий стандарт продуктивності для корпоративних систем. Крім того, у WeChat запущено пошуковик AI Search, що використовує модель DeepSeek.
 
Baidu утримує позиції завдяки Ernie Bot, яким щодня користуються понад 3 мільйони людей. Наступне покоління — Ernie 5 — перебуває в розробці та буде підтримувати мультимодальність: роботу з текстом, відео й аудіо. Компанія також лідирує у сфері хмарних рішень з глибокою інтеграцією АІ в державний сектор.
 
У ByteDance найбільш популярним продуктом став чат-бот Doubao, що отримав масове поширення в Китаї. Його нова версія, Doubao 1.5-Pro, підтримує персоналізовану взаємодію та обробку до 50 документів одночасно. До 2026 року компанія планує завершити розробку власних AI-чипів для подальшої незалежності від зовнішніх постачальників.
 
DeepSeek є найбільшим open-source проєктом у сфері штучного інтелекту в Китаї. Понад 500 компаній уже використовують модель DeepSeek R1 у продакшені, а версії з інтерфейсами англійською, іспанською та арабською мовами готуються до виходу на міжнародний ринок.
 
SenseTime просуває мультимодальну модель SenseNova 5.5, здатну працювати в режимі реального часу та генерувати відео-аватари. Компанія стала лідером рейтингу SuperCLUE 2025 серед китайських моделей, а також представила інструмент Code Raccoon — конкурента GitHub Copilot для генерації коду.
 
iFlytek розробила SparkDesk 4, який підтримує 74 мови та демонструє високу точність навіть у шумному середовищі. У співпраці з Huawei також запущено платформу OceanStor AI Storage, яка забезпечує обчислення для моделей із понад трильйоном параметрів — зокрема через інфраструктуру Feixing №1.
 
Нарешті, стартап Moonshot привернув увагу моделлю Kimi 1.5, яка поєднує мультимодальність, логіку й можливість обробки файлів. Компанія вже отримала мільярд доларів інвестицій лише за 2024 рік, а відкритий вихідний код став запорукою її швидкої глобалізації.
 
Однак розвиток китайського АІ має й темний бік. У країні діє жорстка цензура — державні моделі фільтрують теми на кшталт протестів на площі Тяньаньмень, Тайваню чи Тибету. Уся індустрія функціонує під контролем держави, а доступ до деяких сервісів жорстко регламентується. США, Тайвань, Австралія й Італія вже ввели обмеження на використання китайських AI-сервісів, побоюючись кіберзагроз і витоку даних.
 
Попри це, економічний ефект від генеративного АІ вражає. За прогнозами Goldman Sachs, до 2026 року він додаватиме 0,2–0,3% до щорічного зростання ВВП Китаю, а до 2030 року технології охоплять понад 40% економіки країни. Уже сьогодні Китай випередив Євросоюз і Британію за кількістю мовних моделей, а його стартапи активно виходять на ринки країн Глобального Півдня — зокрема Бразилії, Індонезії, Кенії та Саудівської Аравії, просуваючи власну модель “АІ-поясу і шляху”.
 
Загалом, китайський АІ вже не доганяє західні технології — він формує альтернативну систему. Стратегічне планування, великі інвестиції, масштаб і готовність ризикувати дають Пекіну шанс вибороти місце у новому технологічному світопорядку. Поки США та Європа обережно регулюють, Китай рухається швидко, масово і прагматично — і це вже приносить відчутні результати.
 

AI агенти — новий великий тренд?

Зараз ми стаємо свідками ще однієї трансформації, пов’язаної зі штучним інтелектом. Наступним етап еволюції АІ, який на думку експертів McKinsey, імовірно, відчутно вплине на використання цієї технології в бізнесі — AI-агенти (AI agents). Саме вони зможуть розкрити весь потенціал генеративного штучного інтелекту.
 
Більшість wow-вражень від взаємодії з АІ сформував GenAI, який став доступним завдяки ChatGPT. Однак агентний АІ не зовсім інноваційна технологія — концепцію агентів описав ще Алан Тюрінг, а програми для гри в шахи, створені в 1960-х, якраз демонстрували роботу типових агентів, які самостійно приймають рішення в обмеженому середовищі.
 
Що таке AI-агенти? В IBM так називають програми, які автономно виконують завдання від імені користувача, самостійно планують кроки до досягнення мети й використовують доступні їм інструменти. А Ларі Хямяляйнен, один зі старших партнерів у McKinsey, використовує цей термін для визначення «програмних сутностей, що організовують складні робочі процеси, координують свої дії, застосовуючи логіку й оцінюючи відповіді». AI агенти здатні як повністю автоматизувати окремі процеси (сам Ларі вважає, що до 2055 року їхній внесок у це сягне 50%), так і доповнювати працівників, як це вже робить GenAI, але більш глибоко занурюючись у задачі.
 
Новий спалах інтересу до AI-агентів виник у 2023-му, коли технологічні лідери почали інвестувати в цю технологію, як це вже зробили Google і Microsoft. Розробкою агентів також займається китайський IT-гігант Baidu, а Meta (Facebook) уже пропонує свій фреймворк LLAMA для створення АІ-агентів. Сем Альтман, засновник OpenAI, упевнений, «що у 2025 році ми можемо побачити перших агентів АІ, які стануть справжньою робочою силою і суттєво змінять результати діяльності компаній».
 
AI-агенти — синоніми інтелектуальної автоматизації, яка вже частково відбувається завдяки GenAI. Але крім автоматизації складних завдань, які зазвичай вимагають втручання людини, AI-агенти відкривають багато інших перспектив, оскільки мають унікальні можливості:
  • розуміють природну мову як інструкції;
  • надають повні, точні та персоналізовані для конкретного користувача відповіді;
  • на кожному наступному кроці вирішення завдання використовують результати попереднього;
  • забезпечують високу продуктивність (особливо мультиагентні системи);
  • працюють з великою різноманітністю інструментів і цифрових екосистем;
  • можуть отримувати дані через фізичні інтерфейси (датчики в IoT-екосистемах);
  • швидко адаптуються до зміни умов завдання.
  • Це дає змогу використовувати AI агентів в найрізноманітніших сферах і отримувати вимірювані результати.
Як і у випадку з GenAI, в основі AI-агентів також лежать великі мовні моделі. Але якщо традиційно вони обмежені конкретним обсягом знань і висновками, агенти самостійно використовують доступні їм інструменти для пошуку й аналізу необхідної інформації. Ба більше, вони прагнуть адаптуватися до вимог і побажань користувача, зберігають усі минулі взаємодії та можуть планувати майбутні дії без втручання людини.
 
Хоча AI агенти автономні в плані ухвалення рішень, цілі, завдання і середовище для роботи, як і раніше, визначають люди. Одна команда проєктує і навчає систему, друга розгортає її та надає зручний інтерфейс роботи з агентом і, нарешті, кінцевий користувач ставить конкретну мету і визначає інструменти, які можна використовувати для її досягнення.
 

Якщо знань AI-агента недостатньо, він звертається до інших агентів, баз даних або використовує веб пошук. Наприклад, якщо користувач доручить AI-агенту вибрати найкращий час для польоту до Парижа на канікули, той вивчить розклади авіакомпаній і знайде прийнятні за ціною і часом прибуття варіанти. Щоб мінімізувати ризики зміни планів, агент самостійно ставить собі таке завдання: вивчити архіви та прогнози погоди та з’ясувати, в який період погодні умови будуть найсприятливішими. Консолідуючи дані з різних джерел, AI агент запропонує користувачеві кілька варіантів дат для вильоту і прибуття.

Якщо порівняти AI-агентів з традиційними генеративними моделями на прикладі ChatGPT від OpenAI, картина буде такою: AI-агенти ще не стали пересічним інструментом у бізнесі, проте найближчим часом усе може змінитися.

Ось чотири приклади, які дозволяють оцінити перспективи використання цієї технології.

Оцінка позичальника в кредитних організаціях. Один агент може взяти на себе комунікацію з потенційним позичальником, щоб отримати від нього якомога більше інформації для прийняття рішення. Другий — збере документи відповідно до вимог і перевірить їх на помилки. Третій — вивчить рух коштів на рахунках позичальника. А четвертий — консолідує цю інформацію і запропонує підсумкове рішення за заявкою.  

Оптимізація ресурсів персоналу у сфері охорони здоров’я. Так само кілька AI-агентів можуть сегментувати пацієнтів у приймальному покої, формуючи черги залежно від причини звернення, а також складати попередні плани їхнього лікування або керувати прийомом лікарських препаратів. Це перекриє дефіцит медичних працівників і підвищить якість обслуговування пацієнтів.

Підвищення ефективності маркетингових кампаній. Маркетолог може надати AI-агенту інформацію про цільових покупців, описати цілі маркетингової кампанії та передбачувані канали взаємодії. А вже агенти розроблять і протестують різні стратегії, використовуючи аналітику по клієнтах, історію комунікацій з ними та дослідження ринку. Окремі агенти допоможуть зі створенням персоналізованого контенту (текстового і візуального), зроблять його відповідним до брендбуку, оцінять ризики для компанії під час реалізації нестандартних ідей.

Погашення технічного боргу. Мультиагентні системи здатні поліпшити процес розробки та оптимізації застосунків. Одні агенти перевірять код на відповідність вимогам, інші виконають роботу QA-фахівця, треті сфокусуються на аналізі загроз, а четверті — поставлять запитання розробнику, щоб швидше досягти поставленої мети й точніше виконати завдання. Модернізація застарілих застосунків і погашення технологічного боргу залишаються серйозними проблемами в IT: за даними McKinsey, понад 70% ПЗ, яке використовують компанії зі списку Fortune 500, було розроблено 20 років тому.
 
Як же працювати з AI-агентами?
 
Є три способи працювати з AI-агентами: через суперплатформи, програмні оболонки та окремі користувацькі інструменти. Суперплатформи являють собою нове покоління бізнес-додатків, де агенти АІ — це одна з багатьох функцій, яку можна використовувати за необхідності. Програмні оболонки працюють зі сторонніми сервісами через API, а користувацькі агенти розробляються індивідуально для конкретної компанії шляхом тонкого налаштування попередньо навченої великої мовної моделі. Якщо перший варіант простіше масштабувати, то останній — більш гнучкий, що підтримує кастомне налаштування. Наприклад, можна створити агентів для кол-центру, які відповідатимуть на запитання клієнтів, використовуючи набори даних про клієнтів компанії, записи попередніх розмов і внутрішні регламенти компанії.
 
AI-агенти перебувають на ранніх етапах розвитку, і їхні можливості ще не реалізовані повною мірою. Але вже зараз бізнесу слід готуватися до розгортання таких систем й розуміти, що для отримання результатів будуть потрібні додаткові ресурси — як обчислювальні, так і людські. Наприклад, нову систему доведеться навчити та багаторазово протестувати, перш ніж вона зможе працювати автономно. Крім цього, бізнес очікують інші виклики, пов’язані з використанням агентів АІ: захист конфіденційних даних, ідентифікація неправдивих або упереджених відповідей, а також технічні складнощі.

На хвилі DeepSeek

DeepSeek зараз не сходить з новин. Як вийшло, що маловідомому китайському стартапу вдалося зробити неймовірне — похитнути трон під США, які дотепер вважалися технологічною столицею світу і лідером в AI-технологіях?
 
Почнемо з того, що для розробки ChatGPT компанія Open AI тільки на старті залучила 1 млрд дол. інвестицій. І ще багато мільярдів — вже після своїх перших успіхів у створенні великих мовних моделей, тільки Microsoft виділили 10 млрд дол. А у 2023-му стало відомо, що ChatGPT щодня обходиться своїм творцям у 700 тисяч дол. До січня 2025-го всі думали, що такі великі витрати не є чимось екстраординарним. А потім з’явився DeepSeek (а точніше, модель DeepSeek R1) — дешевий китайський чат-бот, який на перший погляд не поступається у функціональності ChatGPT і його основним конкурентам.
 
Модель DeepSeek R1 було запущено на початку січня 2025 року — тоді розробники похвалилися в мережі X, що вона справляється із завданнями не гірше, ніж ChatGPT. А саме, може так само писати програмний код, розв’язувати математичні задачі, міркувати на задані користувачем теми й жартувати. І все це - абсолютно безкоштовно.
 
Стартап DeepSeek заснував 2023 року китаєць Лян Веньфен (Liang Wenfeng), який зробив ставку на високопродуктивні графічні процесори та закупив тисячі чіпів Nvidia до того, як їхній експорт зі США до Китаю було заборонено. Наразі процесори Nvidia забезпечують роботу DeepSeek одночасно із дешевшими графічними чипами, однак за іншими даними перших у DeepSeek може бути набагато більше, ніж вони заявляють. Це викликає питання про те, чи справді санкції США у стримуванні китайського прогресу в AI ефективні або ж їх можна обійти.  
 
У Nvidia описали нову розробку як «чудове досягнення АІ», а генеральний директор OpenAI Сем Альтман написав, що «R1 від DeepSeek - вражаюча модель». Саму появу DeepSeek називають «моментом супутника» - за аналогією з першим супутником, запущеним у космос СРСР 1957 року.
 
Слід також зазначити, що DeepSeek R1 - модель штучного інтелекту з відкритим вихідним кодом, яка зʼявилася як сторонній проєкт (хедж-фонду High-Flyer), але зуміла зробити революцію в галузі. 
 
Модель була навчена з використанням понад 2000 відеокарт Nvidia H800 за 55 днів при вартості за 5,6 млн дол.- це в рази менше, ніж витратили на аналогічні рішення у конкурентів.
 
DeepSeek R1 запускає внутрішні процеси пошуку оптимального використання графічних чіпів, щоб отримати результат із найменшим залученням ресурсів (так зване розподілене навчання або Distributed Training). При цьому використовується навчання з підкріпленням (reinforcement learning, RL), яке передбачає винагороду за правильні відповіді й покарання за неправильні. Модель не передбачає будь-яких лімітів на кількість запитів і не знижує продуктивності при інтенсивному навантаженні. І як результат DeepSeek R1 перевершує конкурентів в основних бенчмарках — AIME 2024, MMLU і AlpacaEval 2.0.
 
Крім технічних аспектів є й важливі етичні моменти. Оскільки DeepSeek розроблена китайцями і для китайців, вона цензурує заборонені у цій країні теми — переважно політично чутливий контент. Але це не так важливо, як те, що мобільний застосунок DeepSeek, ймовірно, зберігає великі обсяги даних на китайських серверах, що може стати загрозою конфіденційності для жителів США, Європи та низки інших країн. З іншого боку, відкритий вихідний код моделі R1 дає змогу запускати її таким чином, щоб уникнути надсилання даних до Китаю.
 
Назва DeepSeek уперше голосно прозвучала на Всесвітньому економічному форумі в Давосі, що стартував 20 січня 2025 року. Спочатку її згадали в контексті того, що США слід подвоїти свої зусилля з розвитку AI, а великий інвестор і IT-підприємець Марк Андерссен назвав модель DeepSeek «одним із найдивовижніших і найбільш вражаючих проривів», які він коли-небудь бачив. Уже на третю добу роботи форуму DeepSeek очолив чарти із завантажень в iPhone Apple Inc. і опинився серед лідерів у Google Play. Ринки відреагували негайно: за кілька днів вартість акцій американських і європейських технологічних компаній впала майже на 1 трлн дол. - тільки одна Nvidia Corp. втратила близько 589 млрд дол. (18% капіталізації) за один понеділок, але пізніше частково відновилася. Істотних втрат також зазнали компанії Microsoft і Alphabet (Google).
 
Чи зможе DeepSeek скласти реальну конкуренцію найбільшим гравцям AI-ринку — ще належить дізнатися. Однак основні технологічні гіганти вже мають намір переглянути свої цінові політики і зрозуміти, чи дійсно виправдані їхні величезні витрати на штучний інтелект. Наприклад, для цього Meta Platforms зібрала внутрішню команду для детального аналізу DeepSeek — він дасть змогу зрозуміти, як було створено модель і на що вона насправді здатна. Водночас Ілон Маск, у якого є власна AI-компанія xAI, висловив скептицизм щодо DeepSeek - він підозрює, що у стартапа було набагато більше графічних процесорів Nvidia, ніж заявляють розробники.
 
Нагадаємо, що ажіотаж навколо DeepSeek виник на тлі того, як технологічні гіганти продовжують витрачати мільярди доларів на свої AI-проєкти. Наприклад, тільки 2024 року Amazon інвестувала 75 млрд дол. у комп’ютерні чіпи та центри обробки даних, які обслуговують AI-навантаження. Також 65 млрд дол. на проєкти, пов’язані зі штучним інтелектом, планує виділити Meta. А Microsoft на центри обробки даних для AI — ще 80 млрд дол. При цьому перераховані компанії натрапили на труднощі в монетизації своїх AI-продуктів і не отримують тієї фінансової віддачі, на яку розраховували.

Зараз значна частина величезних витрат технологічних гігантів йде на закупівлю дорогих GPU від Nvidia. Хоча в DeepSeek також залучали графічні прискорювачі саме цього бренду, це не єдиний можливий варіант. Як повідомляють в South China Morning Post, китайські хмарні провайдери (як от SiliconFlow) вже пропонують моделі штучного інтелекту DeepSeek, що використовують обладнання іншого вендора — а саме Huawei Ascend 910B. Воно дозволяє знизити вартість одного мільйону вхідних токенів лише до одного юаню та вихідних — до чотирьох юанів. Це суттєва економія з урахуванням того, що постачальники хмарних послуг в США пропонують рішення на базі DeepSeek R1, яке буде коштувати приблизно 7 дол. за мільйон токенів.

А поки розробники в усьому світі почали експериментувати з DeepSeek і роблять перші спроби створити ефективні інструменти на його базі, у самому стартапі шукають можливість масштабуватися — заборона на експорт із США топових графічних чипів усе ще в силі. У будь-якому разі, поява DeepSeek уже змінила ринок технологій і зміцнила вплив Китаю у глобальну AI-індустрію.

 
 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT