| 0 |
|
Компанія Anthropic надала подробиці про те, що, за її словами, є першою зафіксованою «кампанією кібершпигунства, організованою AI».
Ця кампанія включала ймовірних хакерів, що фінансуються державою Китаю, які використовували модель Claude від Anthropic для автоматизації більшості частин кібершпигунської операції, спрямованої проти десятків світових організацій. Anthropic заявляє, що зловмисники організували розвідку, розробку експлойтів та викрадення даних з мінімальною участю людини, що є одним із найчіткіших прикладів роботи агента AI як основного рушія вторгнення.
Кампанія була націлена на близько 30 організацій у секторах технологій, фінансів, хімічної промисловості та державного сектора, хоча успіху досягла лише невелика кількість вторгнень.
Зловмисник використовував Claude та Claude Code для обробки від 80% до 90% операційного робочого процесу, включно зі скануванням мереж, генеруванням коду експлойтів, скануванням внутрішніх систем та пакуванням викрадених даних.
Людські оператори забезпечували стратегічний нагляд, але більшість практичної діяльності виконувалася через автоматизовані цикли AI.
Атакувальники обійшли запобіжники в AI-моделі Claude, формулюючи свої запити як завдання з тестування на проникнення (penetration-testing) та розбиваючи шкідливі інструкції на менші підзадачі, які здавалися нешкідливими. Anthropic заявляє, що зловмисник фактично здійснив «соціальну інженерію» захисних механізмів системи, що дозволило автоматизовано просуватися на кожному етапі вторгнення.
Компанія не ідентифікувала жертв, але заявила, що діяльність відповідає «добре забезпеченій, державній групі», що діє з Китаю.
Anthropic виявила цю діяльність у середині вересня. Після виявлення вона негайно призупинила пов'язані облікові записи та розгорнула нові класифікатори та системи моніторингу, призначені для виявлення подібних зразків зловживань.
Anthropic також опублікувала детальний звіт, у якому описується, як розгорталася операція та чому загрози, керовані AI, становлять висхідний виклик для захисників: завдання, які колись вимагали команд людських операторів, тепер можуть бути виконані за хвилини агентом AI, здатним зациклювати інструкції, оцінювати вихідні дані та приймати рішення про наступний крок.
«Бар'єри для здійснення складних кібератак істотно знизилися, і ми прогнозуємо, що вони продовжать знижуватися, — написала Anthropic. — За допомогою правильного налаштування зловмисники тепер можуть використовувати агентні системи AI протягом тривалого часу для виконання роботи цілих команд досвідчених хакерів: аналізувати цільові системи, створювати експлойт-код та сканувати величезні масиви викраденої інформації ефективніше, ніж будь-який людський оператор».
Anthropic зазначила, що ця кампанія знаменує фундаментальну зміну в кібербезпеці, і радить командам безпеки експериментувати із застосуванням AI для захисту в таких областях, як автоматизація SOC (Центру операцій безпеки), виявлення загроз, оцінка вразливостей та реагування на інциденти.
Стратегія охолодження ЦОД для епохи AI
| 0 |
|

