`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Звіт Check Point Research: виявлено зростання кіберзлочинності з використанням AI

+11
голос

Компанія Check Point Software Technologies на конференції RSA Conference 2025 представила свій перший звіт про безпеку AI. У ньому детально розглядається, як кіберзлочинці використовують штучний інтелект (AI), а також пропонуються стратегічні ідеї для захисників, щоб бути попереду.

У міру того як штучний інтелект перебудовує галузі, він також стирає межі між правдою та обманом у цифровому світі. Кіберзлочинці тепер використовують генеративний AI й великі мовні моделі (LLM), щоб знищити довіру до цифрової ідентифікації. У сучасних умовах побаченому, почутому або прочитаному в Інтернеті більше не можна вірити на слово. Імітація за допомогою AI обходить навіть найскладніші системи перевірки особистості, роблячи будь-яку людину потенційною жертвою масштабного обману.

«Швидке впровадження кіберзлочинцями штучного інтелекту вже змінює ландшафт загроз», - каже Лотем Фінкельштейн (Lotem Finkelstein), директор Check Point Research. «Хоча деякі підпільні служби стали більш просунутими, всі ознаки вказують на прийдешнє зрушення - появу цифрових двійників. Це не просто двійники, схожі зовні або за звучанням, а керовані штучним інтелектом копії, здатні імітувати людське мислення і поведінку. Це не далеке майбутнє - воно вже не за горами».

Ключові відомості про загрози зі звіту AI Security Report:

В основі цих розробок лежить здатність AI переконливо видавати себе за інших людей і маніпулювати цифровими ідентифікаторами, розчиняючи межу між справжнім і підробленим. Звіт виявляє чотири основні сфери, в яких цей підрив довіри найбільш помітний:

AI-видача себе за іншого і соціальна інженерія: Загрозливі суб'єкти використовують AI для створення реалістичних фішингових листів у реальному часі, звукових пародій і глибоко підроблених відео. Зокрема, нещодавно зловмисники імітували міністра оборони Італії за допомогою аудіозапису, згенерованого AI, продемонструвавши, що ні голос, ні обличчя, ні написане слово в мережі не захищені від підробки.

Отруєння даних LLM і дезінформація: Зловмисники маніпулюють даними для навчання AI, щоб спотворити результати. Випадок із російською дезінформаційною мережею «Правда» засвідчив, що чат-боти AI повторюють неправдиві повідомлення в 33% випадків, що підкреслює необхідність забезпечення надійної цілісності даних у системах AI.

Шкідливе ПЗ, створене AI, і видобуток даних: Кіберзлочинці використовують AI для створення й оптимізації шкідливих програм, автоматизації DDoS-кампаній і уточнення вкрадених облікових даних. Такі сервіси, як Gabbers Shop, використовують AI для перевірки та очищення вкрадених даних, підвищуючи їхню вартість під час перепродажу та ефективність таргетингу.

Зброя і захоплення моделей AI: Від вкрадених акаунтів LLM до створених на замовлення Dark LLM, таких як FraudGPT і WormGPT, зловмисники обходять механізми безпеки і комерціалізують AI як інструмент для злому і шахрайства в темному інтернеті.

У звіті наголошується, що захисники тепер повинні виходити з того, що AI вбудований у кампанії противника. Щоб протистояти цьому, організаціям слід впроваджувати системи кібербезпеки з урахуванням AI, зокрема:

Виявлення і пошук загроз за допомогою AI: Використання AI для виявлення загроз і артефактів, створених AI, таких як синтетичний фішинговий контент і глибокі підробки.

Розширена верифікація особистості: Вийти за рамки традиційних методів і впровадити багаторівневу перевірку особистості, що враховує видачу себе за людину за допомогою AI в тексті, голосі та відео, визнаючи, що довіра до цифрової ідентифікації більше не гарантована.

Аналіз загроз за допомогою AI-контексту: Озбройте команди безпеки інструментами для розпізнавання і реагування на тактики, засновані на AI.

«У цю епоху, керовану штучним інтелектом, команди кібербезпеки повинні відповідати темпам зловмисників, інтегруючи штучний інтелект у свої захисні системи», - додав Фінкельштейн. «Цей звіт не тільки підкреслює ризики, а й надає дорожню карту для безпечного та відповідального захисту середовищ AI».

Дополнительную информацию о компании и ее решениях вы можете найти на специальной странице http://ko.com.ua/check_point

Kingston повертається у «вищу лігу» серверних NVMe SSD

+11
голос

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT