Довгий час у розмові про штучний інтелект у кібербезпеці акцент робився на захисних можливостях технології. Швидкість, точність, автоматизація – усе це зробило AI незамінним інструментом для захисту організацій. Але важливо визнати й інший бік медалі: кіберзлочинці не менш активно освоюють штучний інтелект – і використовують його з вражаючою ефективністю.
Від WormGPT до Xanthorox: нове покоління offensive-AI
Останні кілька років позначилися появою спеціалізованих LLM-моделей, створених не для допомоги, а для атаки. WormGPT, побудований на основі GPT-J, відкрито позиціонувався як blackhat-інструмент із можливістю генерації шкідливого коду, фішингових листів і підроблених повідомлень. Після нього з’явилися FraudGPT, PentestGPT, PassGPT, BurpGPT, і в планах – ще складніші моделі на кшталт “Evil-GPT-Web3”.
Окрему увагу привертає Xanthorox AI – автономна агентна система, що з’явилася на початку 2025 року. Побудована з нуля, вона працює повністю офлайн, що дозволяє зловмисникам уникати виявлення. П’ять окремих моделей у її складі – від Xanthorox Coder до Reasoner Advanced – здатні автоматизувати розвідку, розробку шкідливого ПЗ, соціальну інженерію та скоординовані атаки без участі людини.
Це вже не просто мовна модель – це повноцінний AI-агент, що працює як самостійна атакувальна платформа.
AI-фішинг: персоналізація, масштабування, безпомилковість
Одне з найяскравіших полів застосування offensive-AI – фішинг. Завдяки генеративним моделям, кіберзлочинці більше не створюють шаблонні листи. Замість цього – персоналізовані, стилістично бездоганні повідомлення, які імітують корпоративну переписку. Більше ніяких граматичних помилок чи дивних формулювань – лише чиста, релевантна комунікація.
У 2024 році 67,4% фішингових атак у світі мали AI-компонент. І це не тільки про масштаб – це про точність. AI дозволяє формувати цільові кампанії (spear-phishing), використовувати deepfake-технології та нові прийоми соціальної інженерії.
У лютому минулого року угорський офіс однієї з європейських компаній втратив 15,5 млн євро в результаті BEC-атаки. Генеративний AI зімітував стиль внутрішнього листування з ідеальною точністю. Зовні – звичайні службові листи з запитом на переказ коштів. Але по суті – атака, що обійшла всі класичні фільтри.
Deepfake: нова зброя маскування
AI вже не обмежується текстом. Deepfake-технології дозволяють створювати реалістичні відео- та аудіозаписи. І те, що донедавна здавалося фантастикою, сьогодні – реальний інструмент зловмисників. Ось лише декілька прикладів.
ОАЕ, 2020: deepfake-дзвінок голосом директора призвів до крадіжки 35 млн дол. у банку.
Гонконг, січень 2024: deepfake-відеоконференція з підробленим CFO – 25 млн дол. втрати.
Велика Британія, травень 2024: спроба deepfake-атаки через Teams та WhatsApp, націлена на реєстрацію фіктивної компанії.
За даними Deloitte, понад 25% топменеджерів вже стикалися з deepfake-інцидентами. І ця цифра зростає.
Розвідка нового рівня
AI використовується не лише для створення атак, а й для збору інформації. За допомогою генеративних моделей, зловмисники можуть аналізувати відкриті джерела (соцмережі, витоки даних, офіційні сайти) з рекордною швидкістю. Це дозволяє створювати таргетовані сценарії, прив’язані до конкретного моменту чи особи.
У січні 2024 року в Індії відбулася масштабна фішинг-кампанія проти фінансового сектору. З допомогою AI було зімітовано стиль CEO одного з банків з ціллю перенаправлення менеджерів підприємства на фальшивий портал. У результаті стався витік критичних даних. Усього лише за перше півріччя 2024 року рівень AI-фішингу в регіоні виріс на 175%.
Як висновок
Штучний інтелект змінив правила гри в кіберпросторі. Якщо раніше AI був перевагою захисників, сьогодні він став і головною загрозою. Поява автономних атакувальних агентів, гіперперсоналізованого фішингу та deepfake-комунікацій вимагає нового рівня уваги та протидії.
Стратегія охолодження ЦОД для епохи AI