+11 голос |
Развитие технологий приводит к появлению различных инноваций, таких, например, как дипфейки (англ. deepfake). Это видео, изображение или аудиозапись, которые были обработаны с помощью технологии искусственного интеллекта. Например, на видео с дипфейком можно сделать так, чтобы человек говорил или делал что-то, чего в реальной жизни не было.
Дипфейки выглядят очень убедительно, и продолжающееся развитие технологий только усложнило различие между реальным и поддельным контентом. Хотя технология deepfake относительно нова, она стремительно становится все более серьезной проблемой, поскольку используются преступниками для проведения мошеннических афер и атак с методами социальной инженерии, а также для распространения дезинформации.
По оценкам экспертов (PDF), ущерб от мошеннических афер с дипфейками в 2020 г. превысил 250 млн. долл. Вне сомнения, по мере развития технологии дипфейков будет совершенствоваться и то, как преступники используют ее для атак на домашних и корпоративных пользователей.
Созданные посредством ИИ «синтетические медиа», дипфейки, имитируют лица, движения и голоса людей с такой точностью, что их часто невозможно отличить от оригинала без специальных инструментов.
Алгоритмы машинного обучения позволяют манипулировать такими биометрическими данными как выражение лица и тон человеческого голоса, чтобы создавать реалистичное изображение событий, которые никогда не происходили. Хотя не все подделки используются со злым умыслом.
Чтобы создать дипфейковое видео с каким-нибудь человеком, автор начинает с загрузки в нейронную сеть сотен часов реальных видеоматериалов, на которых записан этот человек в разных ситуациях, чтобы как можно лучше «обучить» компьютер распознавать подробные закономерности и характеристики данного человека. Это делается для того, чтобы дать алгоритму реалистичное представление о том, как выглядит данный субъект с разных сторон.
Затем возможности обученной нейронной сети объединяются с методами компьютерной графики, для наложения реальных кадров человека на синтезированные ИИ лицевые и речевые паттерны.
Хотя многие считают, что для создания дипфейков требуются сложные инструменты и экспертные навыки, это не так – их можно сделать даже с базовыми навыками компьютерной графики. Главное, что нужно для создания дипфейка, – это доступ к видео или аудиозаписям какого-либо человека. Однако сегодня это не является проблемой, учитывая ошеломляющее количество доступных источников информации.
Быстрое развитие технологии дипфейка создало возможность для технически подкованных преступников наносить серьезный финансовый ущерб. Злоумышленники в своих интересах активно используют дипфейки для кражи персональных данных и онлайн-личности, распространения дезинформации в обществе, финансового шантажа, мошенничества и автоматизированных кибер-атак. Вот лишь некоторые распространенные виды мошенничества с помощью дипфейков.
- Афера с «мертвыми душами» состоит в том, что преступник крадет данные умершего человека и пытается использовать его в «живом виде» для получения финансовой выгоды. Украденная личность может быть использована для получения доступа к онлайн-сервисам и учетным записям или для подачи заявок на банковские карты, кредиты и т.д.;
- Мошенничество с открытием счетов заключается в том, чтобы использовать украденные или поддельные личности для открытия новых банковских счетов. Как только преступник открыл счет, он может нанести серьезный финансовый ущерб, обналичив кредитные карты или взяв кредиты, которые он не намерен возвращать;
- Мошенничество с использованием синтезированных личностей – более сложный вид, который, как правило, труднее обнаружить. Вместо того чтобы использовать украденную личность одного человека, преступники добывают информацию и сведения по нескольким людям, чтобы создать/ синтезировать нового «человека», которого на самом деле не существует. Затем эта синтезированная личность используется для финансовых транзакций или получения новых кредитов.
Последние инновации существенно сократили количество времени и данных, необходимых для создания реалистичных дипфейков. По мере того как они станут более доступными, число подобных атак, вероятно, будет продолжать расти.
Одной из первых известных атак с использованием дипфейка стала афера 2019 г., когда генеральный директор энергетической компании получил телефонный звонок якобы от своего босса. На самом деле, это был поддельный голос, сгенерированный ИИ, но на слух это было сложно определить, поэтому работник спокойно выполнил поручение о переводе 243 тыс. долл. в течение часа.
Несмотря на все большую реалистичность, дипфейк можно попытаться выявить, если быть внимательным. Любые признаки, вроде неестественной интонации речи, роботизированного тона, неестественного моргания или движений человека, не синхронизированных с речью движений губ, низкое качество звука или видео – являются поводом усомниться и перепроверить поступившую информацию.
Со своей стороны компании могут бороться с угрозой атаки с использованием дипфейков, главным образом, обучая своих сотрудников тому, как распознавать потенциальные подделки. Чаще всего обучение сотрудников мерам информационной безопасности является первой линией защиты компании от кибер-атак. Предоставление четких корпоративных правил реагирования и наличие системы внутренней проверки подозрительных сообщений является важным началом, когда речь заходит о безопасности компании.
О серьезности проблемы свидетельсвтуе хотя бы тот факт, что в 2020 г. в США был принят закон, который криминализировал создание и распространение видео с дипфейками, которые не помечены должным образом, и обозначил направление дальнейших исследований и разработок средств обнаружения дипфейков.
Про DCIM у забезпеченні успішної роботи ІТ-директора
+11 голос |