Дипфейковые видео и голосовые звонки: растущая угроза

Фото - Дипфейковые видео и голосовые звонки: растущая угроза
Представьте себе рабочий созвон, во время которого скамер убедительно выдает себя за босса, получая доступ к вашей конфиденциальной информации или счетам компании. Купиться на такой дипфейк и стать жертвой мошенничества проще, чем вы думаете. Ведь теперь ИИ может создавать правдоподобные видеоролики в режиме реального времени.
Первый звоночек (в прямом и переносном смыслах) прозвенел еще в 2019 году, когда в СМИ просочилась информация о незадачливом СЕО одной из британских энергетических компаний. Ему позвонил руководитель головного офиса с просьбой перечислить поставщику $249 000. Вскоре после того как средства были переведены, оказалось, что британец стал жертвой мошенников — на самом деле босс никаких распоряжений не отдавал. За дело взялась страховая компания и выяснила, что звонок был сгенерирован с помощью программного обеспечения для моделирования голоса на базе искусственного интеллекта.

Уже летом 2023 года аналитики Mandiant (дочерняя компания Google, специализирующаяся на кибербезопасности) сообщили, что использование дипфейковых видеотехнологий начинает приобретать массовый характер. Соответствующее программное обеспечение открыто рекламируется на хакерских форумах и Telegram-каналах. Скамеры обещают, что их ноу-хау повысят эффективность вымогательств и мошенничества: возможность выдать себя за другого человека прямо во время видеосвязи сделает общение с жертвой «более личным». Услуги по созданию дипфейков стоили всего $20/мин. или $250 за полное видео. За пробный сеанс просили всего $200, что делало технологию пугающе доступной для потенциальных злоумышленников.
Поскольку мы все привыкли к плохому качеству звука и видео во время виртуальных звонков, оно по-прежнему достаточно хорошее для проведения опасной атаки методом социальной инженерии
, — предупреждают эксперты по кибербезопасности.
Уже в феврале 2024 года случился очередной вопиющий обман — сотрудник гонконгского подразделения одной из транснациональных корпораций заплатил $25 млн после мошеннического видеозвонка. Воспользовавшись технологией дипфейк, скамер выдал себя за финансового директора компании. Более того, лжедиректор явился на колл не один, а с дипфейковыми копиями других сотрудников. Жертва общалась со всеми этими ИИ-клонами достаточно продолжительное время, но так и не заподозрила неладное. Мошенники изначально отправили обманутому сотруднику сообщение с просьбой совершить крупный платеж. И именно видеозвонок стал завершающим этапом скама, полностью развеяв сомнения жертвы. 

Полиция Гонконга заявила, что описанный случай использования видеодипфейков для выманивания денег далеко не единичный. Только за последнее время блюстители порядка задержали шесть подозреваемых в аналогичных преступлениях.

О схожей угрозе предупреждают и специалисты по кибербезопасности из компании IBM, одного из крупнейших в мире производителей ПО и аппаратного обеспечения. Речь об аудиоджекинге — разновидности скама, при котором ИИ используется для имитации голоса реального человека во время голосовых звонков. Чтобы с достоверностью в 100% воспроизвести речь вашего босса, генеративному искусственному интеллекту достаточно оригинальной аудиозаписи длительностью всего три секунды.
Область применения этой угрозы варьируется от финансовых преступлений до распространения дезинформации в критических коммуникациях
, — подчеркивают специалисты.
Как не попасться на все более изощренные уловки скамеров? Рекомендации специалистов IBM, в общем-то, сводятся к одному: помните, что человек, который смеется над вашими шутками во время рабочего видеоколла, может быть сгенерирован ИИ, а к беседе по телефону в любой момент может присоединиться скамер. И когда ваш собеседник диктует реквизиты для оплаты, заставьте его, к примеру, перефразировать сказанное или повторить в другом порядке. В результате (если повезет) вы можете заметить баги, которые возникают при генерации звука алгоритмами ИИ.