+11 голос |
За повідомленням DarkReading, інструмент для обходу систем безпеки, що незабаром вийде, допоможе хакерам і фахівцям з кібербезпеки постійно обходити Microsoft Defender for Endpoint.
З листопада 2023 року песимісти передбачали майбутнє, в якому великі мовні моделі (LLM) допоможуть хакерам швидше розробляти шкідливе ПЗ у великих масштабах, з можливостями, що перевершують те, що люди могли б створити самостійно. Це майбутнє ще не настало; досі хакери використовували штучний інтелект (AI) для створення простого шкідливого ПЗ і фішингового контенту, а також для допомоги в додаткових завданнях, таких як дослідження цілей.
Але на конференції Black Hat, яка пройде цього року в Лас-Вегасі, Кайл Ейвері (Kyle Avery), провідний фахівець з наступальних технологій в Outflank, представить програму, яка набагато більше схожа на те, про що всі так турбуються: легку модель, створену для підриву флагманського програмного забезпечення Microsoft для виявлення та реагування на загрози на кінцевих пристроях (EDR). Кайл Ейвері називає важливий «зсув» у розвитку AI, що стався наприкінці минулого року, джерелом натхнення для свого проєкту.
Найпопулярніші сьогодні LLM були навчені в основному в неконтрольованому середовищі. Розробники завантажують у свої моделі величезні обсяги різноманітних даних, і, спрощено кажучи, моделі самі роблять висновки та встановлюють зв'язки на їх основі. Однак у грудні минулого року OpenAI випустила o1, яка відрізнялася від попередніх моделей GPT. Як розповідає Ейвері, «коли вони перейшли з GPT 3.5 на 4, остання була просто краща за 3.5 у всьому. Але o1 була унікальна тим, що у неї були деякі сильні сторони — зокрема, математика і програмування, — але вона була гірша, наприклад, у написанні текстів. І вони не дали багато інформації про [причини]».
Виявилося, що це був не недолік, а дизайнерський хід. Що саме відрізняло o1, стало ясно місяць по тому (не з ініціативи OpenAI) з випуском DeepSeek своєї моделі R1. R1 була схожа на o1 і була відкритим вихідним кодом (OSS), з технічним документом, що детально описує, як вона була створена.
Секрет полягав у навчанні з підкріпленням (RL) з перевіреними винагородами. Розробники тепер навчали моделі досягати успіху в певних видах завдань, змушуючи їх робити безліч прогнозів, які можна було автоматично перевірити або відхилити. Це пояснювало, чому вони були набагато кращі в таких завданнях, як математика, де є правильні та неправильні відповіді, ніж в суб'єктивних завданнях, таких як письмо. Це надихнуло на нову можливість: AI-моделі можна навчити спеціалізуватися в тій чи іншій конкретній області або навіть на виконанні конкретного завдання, наприклад, обході програмного забезпечення безпеки.
Теоретично, отримання даних для навчання завжди було серйозною перешкодою в розробці шкідливого AI. Популярні сьогодні LLM побудовані на десятках терабайтів літератури, даних з Інтернету тощо. Але кількість шкідливого ПЗ обмежена, і будь-який хакер може отримати доступ лише до невеликої його частини, чого недостатньо для навчання моделі послідовної та ефективної автономної розробки шкідливого ПЗ. Однак, за словами Ейвері, RL повністю усуває цю вимогу.
Ейвері взяв універсальну модель з відкритим вихідним кодом — Qwen 2.5 — помістив її в пісочницю з Microsoft Defender for Endpoint і написав програму, яка оцінювала, наскільки близько модель підійшла до створення інструменту для обходу захисту. «Вона точно не може зробити це з коробки», — пояснює він. «Можливо, раз на тисячу разів їй пощастить, і вона напише якесь шкідливе ПЗ, яке буде функціонувати, але не буде нічого обходити. І коли вона це зробить, ви можете винагородити її за шкідливе ПЗ, що функціонує. У міру того, як ви робите це повторно, вона стає все більш і більш послідовною у створенні чогось, що функціонує, не тому, що ви показали їй приклади, а тому, що вона була оновлена, щоб з більшою ймовірністю виконувати той вид розумового процесу, який привів до створення шкідливого ПЗ, що працює».
На цьому етапі модель могла створювати шкідливе ПЗ. Щоб вона спеціалізувалася на конкретній меті — обході Microsoft Defender, Ейвері під'єднав інтерфейс прикладного програмування (API), який дозволяє запитувати та витягувати попередження, що генеруються Defender. Модель була налаштована на написання шкідливого ПЗ, яке викликало б попередження все меншого і меншого ступеня серйозності.
У підсумку модель Ейвері змогла створити шкідливе ПЗ, здатне повністю обійти Microsoft Defender for Endpoint приблизно в 8% випадків. Іншими словами, зловмисник, який запитує модель, може розумно розраховувати на створення ідеально ухильного шкідливого ПЗ приблизно за дюжину спроб. Для порівняння, він виявив, що AI Anthropic міг зробити те ж саме менш ніж в 1% випадків, а DeepSeek — менш ніж в 0,5% випадків.
Примітно, що його програма також на порядок менша за розміром, ніж ці програми, що дозволяє їй комфортно працювати на будь-якій високопродуктивній споживчій відеокарті. Рішення припинити навчання програми після досягнення 8% успіху було довільним. Він згадує, що на той момент «тенденція була така, що успіх продовжував зростати. Я не знаю. Упевнений, що в кінцевому підсумку він стабілізується». За його словами, за три місяці «я витратив на створення цієї програми близько $1500–$1600, що не є божевільною сумою. Так що так, я думаю, що в середньостроковій перспективі, і особливо в довгостроковій, злочинці почнуть займатися подібними речами».
Стратегія охолодження ЦОД для епохи AI
+11 голос |