`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Євген Куліков

Які загрози кібербезпеці несе AI?

+11
голос

Останнім часом розвиток штучного інтелекту значно прискорився. У той час як спеціалісти застосовують штучний інтелект (ШІ) для підвищення кібербезпеки, зловмисники використовують технологію у своїх цілях. Тож варто готуватися до зростання шахрайства, схем соціальної інженерії, афер з обліковими записами, дезінформаційних кампаній та інших загроз. У зв’язку зі зростанням інтересу до використання AI спеціалісти компанії Eset навели основні схеми, які можуть використовувати зловмисники та розповіли про можливі загрози для конфіденційності.

Штучний інтелект вже використовується різними типами загроз, а кількість кібератак з його застосуванням зростає з кожним роком. Найбільш небезпечною є загроза в контексті соціальної інженерії, де генеративний AI може допомогти зловмисникам створювати досить переконливий текст різними мовами.

Серед інших найпоширеніших схем з використанням AI зловмисниками варто згадати обхід автентифікації, злам корпоративної електронної пошти, шахрайство з видаванням себе за іншу особу, дезінформація, злам паролів тощо.

Технології діпфейк допомагають шахраям видавати себе за інших користувачів під час перевірок на основі автопортрета та відео для створення нових облікових записів та отримання доступу до них.

Крім того, штучний інтелект дозволяє обманом змусити жертву переказати кошти на обліковий запис під контролем шахрая. Також можуть використовуватися аудіо та відео діпфейки, щоб замаскуватися під керівників під час телефонних дзвінків та онлайн-зустрічей.

Програми, створені на базі великих мовних моделей (LLM), відкривають нові можливості для шахраїв. Завдяки даним, отриманих зі зламаних або загальнодоступних облікових записів у соцмережах, шахраї можуть видати себе за жертву віртуального викрадення та інших афер, призначених для обману друзів та близьких.

Також цього року очікується поширення використання шахраями AI для створення підроблених або дублів облікових записів знаменитостей, впливових осіб та інших відомих людей у соцмережах. Зокрема зловмисники можуть опублікувати діпфейк-відео, щоб заманити підписників поділитися особистою інформацією та грошима.

Кіберзлочинці використовують штучний інтелект для створення підробного контенту, таким чином заманюючи довірливих користувачів соцмереж слідкувати за фальшивими акаунтами. Надалі ці користувачі можуть стати інструментом для інших операцій зловмисників.

Крім того, інструменти на основі AI здатні за лічені секунди виманювати облікові дані для доступу до корпоративних мереж та даних, а також облікових записів користувачів.

Крім використання AI як інструменту в атаках кіберзлочинців, він також може збільшити ризики витоків даних. Програми на базі великих мовних моделей потребують величезних обсягів тексту, зображень та відео для їх навчання. Часто випадково деякі з цих даних будуть конфіденційними: біометрія, медична чи фінансова інформація. Також деякі соцмережі та інші компанії можуть змінити умови надання послуг, щоб використовувати дані користувачів для навчання моделей.

Надання інформації моделі штучного інтелекту становить небезпеку для користувача через можливість зламу системи або передачі її іншим через програми, які працюють на основі LLM. Зокрема корпоративні користувачі можуть ненавмисно ділитися конфіденційною інформацією, пов’язаною з роботою, через підказки AI. Наприклад, згідно з опитуванням, п’ята частина британських компаній випадково розкривала потенційно конфіденційні дані через використання технологій AI співробітниками.

Втім штучний інтелект також відіграватиме все більшу роль у роботі команд з кібербезпеки, оскільки він буде вбудований у нові продукти та послуги. Зокрема AI здатний допомогти: генерувати дані для навчання користувачів та груп безпеки; узагальнювати довгі та складні звіти про загрози для аналітиків та сприяти швидшому прийняттю рішень щодо інцидентів; підвищити продуктивність спеціалістів з безпеки шляхом автоматизації робочих процесів для розслідування та виправлення; сканувати великі обсяги даних на ознаки підозрілої поведінки; підвищувати кваліфікацію ІТ-команд за допомогою функції «другого пілота», аби зменшити ймовірність неправильних налаштувань.

Таким чином використання інструментів на основі AI несе як потенційні вигоди для підприємств та окремих користувачів, так і створює нові ризики, якими необхідно керувати. Тому держава, підприємства та користувачі повинні співпрацювати, щоб використовувати потенціал штучного інтелекту, одночасно зменшуючи ризики. Важливий баланс між людськими ресурсами та машинною роботою, щоб зменшити ризики помилок, а також потенційно негативні наслідки.

Комп’ютерний розум: генеративний штучний інтелект у рішеннях AWS

+11
голос

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT