+11 голос |
Компанія Check Point Software Technologies на конференції RSA Conference 2025 представила свій перший звіт про безпеку AI. У ньому детально розглядається, як кіберзлочинці використовують штучний інтелект (AI), а також пропонуються стратегічні ідеї для захисників, щоб бути попереду.
У міру того як штучний інтелект перебудовує галузі, він також стирає межі між правдою та обманом у цифровому світі. Кіберзлочинці тепер використовують генеративний AI й великі мовні моделі (LLM), щоб знищити довіру до цифрової ідентифікації. У сучасних умовах побаченому, почутому або прочитаному в Інтернеті більше не можна вірити на слово. Імітація за допомогою AI обходить навіть найскладніші системи перевірки особистості, роблячи будь-яку людину потенційною жертвою масштабного обману.
«Швидке впровадження кіберзлочинцями штучного інтелекту вже змінює ландшафт загроз», - каже Лотем Фінкельштейн (Lotem Finkelstein), директор Check Point Research. «Хоча деякі підпільні служби стали більш просунутими, всі ознаки вказують на прийдешнє зрушення - появу цифрових двійників. Це не просто двійники, схожі зовні або за звучанням, а керовані штучним інтелектом копії, здатні імітувати людське мислення і поведінку. Це не далеке майбутнє - воно вже не за горами».
Ключові відомості про загрози зі звіту AI Security Report:
В основі цих розробок лежить здатність AI переконливо видавати себе за інших людей і маніпулювати цифровими ідентифікаторами, розчиняючи межу між справжнім і підробленим. Звіт виявляє чотири основні сфери, в яких цей підрив довіри найбільш помітний:
AI-видача себе за іншого і соціальна інженерія: Загрозливі суб'єкти використовують AI для створення реалістичних фішингових листів у реальному часі, звукових пародій і глибоко підроблених відео. Зокрема, нещодавно зловмисники імітували міністра оборони Італії за допомогою аудіозапису, згенерованого AI, продемонструвавши, що ні голос, ні обличчя, ні написане слово в мережі не захищені від підробки.
Отруєння даних LLM і дезінформація: Зловмисники маніпулюють даними для навчання AI, щоб спотворити результати. Випадок із російською дезінформаційною мережею «Правда» засвідчив, що чат-боти AI повторюють неправдиві повідомлення в 33% випадків, що підкреслює необхідність забезпечення надійної цілісності даних у системах AI.
Шкідливе ПЗ, створене AI, і видобуток даних: Кіберзлочинці використовують AI для створення й оптимізації шкідливих програм, автоматизації DDoS-кампаній і уточнення вкрадених облікових даних. Такі сервіси, як Gabbers Shop, використовують AI для перевірки та очищення вкрадених даних, підвищуючи їхню вартість під час перепродажу та ефективність таргетингу.
Зброя і захоплення моделей AI: Від вкрадених акаунтів LLM до створених на замовлення Dark LLM, таких як FraudGPT і WormGPT, зловмисники обходять механізми безпеки і комерціалізують AI як інструмент для злому і шахрайства в темному інтернеті.
У звіті наголошується, що захисники тепер повинні виходити з того, що AI вбудований у кампанії противника. Щоб протистояти цьому, організаціям слід впроваджувати системи кібербезпеки з урахуванням AI, зокрема:
Виявлення і пошук загроз за допомогою AI: Використання AI для виявлення загроз і артефактів, створених AI, таких як синтетичний фішинговий контент і глибокі підробки.
Розширена верифікація особистості: Вийти за рамки традиційних методів і впровадити багаторівневу перевірку особистості, що враховує видачу себе за людину за допомогою AI в тексті, голосі та відео, визнаючи, що довіра до цифрової ідентифікації більше не гарантована.
Аналіз загроз за допомогою AI-контексту: Озбройте команди безпеки інструментами для розпізнавання і реагування на тактики, засновані на AI.
«У цю епоху, керовану штучним інтелектом, команди кібербезпеки повинні відповідати темпам зловмисників, інтегруючи штучний інтелект у свої захисні системи», - додав Фінкельштейн. «Цей звіт не тільки підкреслює ризики, а й надає дорожню карту для безпечного та відповідального захисту середовищ AI».
Kingston повертається у «вищу лігу» серверних NVMe SSD
+11 голос |