ИИ-дипфейки получают новую маркировку

Фото - ИИ-дипфейки получают новую маркировку
ИИ-дипфейки распространяются по миру невероятными темпами. Поэтому необходимы решения, которые смогут предотвратить их негативные последствия.
Помните песню Эминема My Name Is?

Ее куплеты спонтанно всплывают в памяти, когда видишь перед собой изображение Папы Римского в этом эпатажном белом пуховике. Несколько смахивает на знаменитого рэпера, не так ли?
image

Вы уже могли встретить это изображение на просторах интернета, однако есть деталь, о которой следует знать. Его сгенерировал искусственный интеллект, но, похоже, не все люди это осознали.

«Наступил бум ИИ-инструментов для генерации изображений, и у этого есть конкретная причина: результаты забавные, процесс увлекателен, а модели просты в применении. В то время как подобные технологии открывают новые возможности для творчества, они также вызывают и опасения относительно злонамеренного применения ИИ. Изображения могут намеренно использовать с целью обмана. Даже те из них, которые были созданы исключительно для развлечения, могут завируситься, что в перспективе тоже может ввести некоторых людей в заблуждение», — пишут в Meta.

Специалисты команды Fundamental AI Research (FAIR) из Meta решают проблему распознавания ИИ-дипфейков. Совместно с компанией Inria они выпустили Stable Signature. Это технология создания водяных знаков, невидимых глазу, однако представленных в коде изображения. Эти строки и будут предоставлять информацию о том, что изображение было создано при помощи генеративной ИИ-модели с открытым исходным кодом.

Поговорим о механике работы технологии.

Простыми словами, эти невидимые водяные знаки изначально зашиты в цифровом контенте. Вторым аспектом выступает Stable Signature, который не позволяет удалить маркировку из кода. Поэтому с помощью данного метода и можно отследить, какой инструмент использовали для создания изображения.

Чтобы объяснить механизм конкретнее, представители Meta прибегают к примерам двух людей, Алисы и Боба.

Алиса занимается обучением генеративной модели ИИ. Но прежде чем приступить к ее дистрибуции, Алиса дорабатывает отдельную ее деталь, именуемую декодером. Этот декодер зашивает водяной знак, который будет появляться на контенте Боба. Эта метка в дальнейшем позволит определить версию модели, компанию-разработчика, конечного пользователя и т. д.

Затем Боб получит модель в личное пользование и начнет генерацию контента. На созданных им изображениях будет присутствовать конкретный водяной знак. Эти метки смогут анализировать как Алиса, так и третьи лица, что поможет заинтересованным сторонам понять, действительно ли непосредственно Боб и сгенерировал изображение.

Если Боб решит поделиться изображением с другими, и эти пользователи захотят изменить его определенным образом, то метка Stable Signature никуда не исчезнет.

«Как бы пользователь ни модифицировал изображение, исходный водяной знак с практически стопроцентной вероятностью сохранится в структуре данных. Это поможет определить, какая модель была использована для генерации контента», — объясняют представители компании.

Кроме того, в Meta заявили, что новый метод маркировки позволяет отслеживать также изображения, для генерации которых были использованы разные версии одной и той же ИИ-модели. Пассивные методы идентификации не предлагают подобного функционала. В компании сообщают, что в скором времени технология будет предоставлена специалистам в области исследований сферы ИИ. Основная цель — стимулировать развитие сотрудничества и совершенствовать существующие технологии.

«Представленное нами исследование сосредоточено на генеративных изображениях. В дальнейшем мы надеемся раскрыть новые возможности для интеграции нашей технологии Stable Signature в другие виды генеративного ИИ», — пишут в FAIR.

А прежде мы в GN Crypto разбирались, почему французские ИИ-компании не в восторге от регуляторных норм ЕС.