| 0 |
|
Група аналізу загроз Google (GTIG) оприлюднила травневий звіт AI Threat Tracker, у якому констатує завершення етапу експериментів зі штучним інтелектом серед кіберзлочинців. Згідно з даними Mandiant та Google, у 2026 році зловмисники перейшли до промислового масштабування атак за допомогою генеративних моделей.
Головна сенсація звіту: вперше зафіксовано використання 0-day уразливості, яку, ймовірно, було виявлено та експлуатовано за допомогою AI.
GTIG виявила злочинне угруповання, яке планувало масову атаку, використовуючи раніше невідому уразливість у популярному інструменті системного адміністрування. Аналіз Python-скрипта показав характерні ознаки генерації AI: специфічні коментарі, «галюцинований» бал небезпеки CVSS та ідеальну структуру коду.
AI виявив складну логічну помилку в механізмі двофакторної автентифікації (2FA), яку пропускають стандартні сканери безпеки.
Угруповання, пов’язані з КНР (наприклад, UNC2814) та КНДР (APT45), використовують AI як «помножувач сили». Вони змушують моделі діяти в ролі «старших аудиторів безпеки» для аналізу прошивок пристроїв (TP-Link, OFTP).
Хакерські групи використовують спеціалізовані плагіни (як-от wooyun-legacy), що містять бази даних із 85000 реальних уразливостей, щоб «навчити» AI шукати помилки в коді з майстерністю експерта.
Суб’єкти, пов’язані з РФ, активно застосовують AI для обходу систем захисту. Зокрема, у кампаніях проти України зафіксовано використання вірусів CANFAIL та LONGSTREAM.
Ці програми містять великі масиви «сміттєвого» коду, згенерованого AI, щоб заплутати аналітиків та обійти статичні сигнатури антивірусів.
З’явився новий клас загроз - автономне шкідливе ПЗ, яке саме здатне інтерпретувати стан системи жертви та динамічно генерувати команди через API нейромереж. Це дозволяє хакерам передати оперативні завдання на аутсорс AI, роблячи атаки адаптивними та масштабними.
Угруповання TeamPCP (UNC6780) почало атакувати самі середовища розробки AI. Зламуючи програмні залежності, хакери намагаються проникнути в мережі розробників AI-моделей для подальшого розгортання програм-вимагачів та здирництва.
Попри винахідливість нападників, Google використовує AI для контрзаходів.
Big Sleep - це автономний агент, який першим знаходить уразливості в ПЗ до того, як їх виявлять хакери.
CodeMender - інструмент на базі Gemini, який автоматично виправляє знайдені помилки в коді.
Google активно деактивує акаунти зловмисників у Gemini, що намагаються використовувати модель для розробки атак.
«Зловмисники рідко цураються інновацій, але ми теж не стоїмо на місці. Ми довели, що AI може бути найпотужнішим інструментом саме в руках захисників», - підсумовують у GTIG.
Стратегія охолодження ЦОД для епохи AI
| 0 |
|

