Діпфейки створюють хибні спогади: дослідження

Фото - Діпфейки створюють хибні спогади: дослідження
Діпфейки, створювані АI, зазвичай вважають простим накладанням зображень облич у відеоряді. Насправді це складна технологія. Як мінімум дві генеративні мережі по черзі створюють та порівнюють два зображення, обмінюються результатами.
Зрештою, сама нейромережа вже не здатна відрізнити оригінал від підробки. Психологи вивчають наслідки впливу діпфейків і створюваних ними хибних спогадів на аудиторію.

Дослідження

Проблема впливу методики синтезу зображення, що заснована на штучному інтелекті, чи діпфейків (deepfake від deep learning — «глибинне навчання» + fake — «підробка») стала предметом недавнього дослідження групи психологів Face/Off: Changing the face of movies with deepfakes. Воно стало відповіддю на побоювання, нібито діпфейки можуть поширювати дезінформацію і створювати хибну пам’ять. Під час експерименту вчені показували оригінальні ремейки та діпфейкові ролики спеціально обраній групі людей.
Учасники переглядали кліпи або опис ремейків фільмів. Деякі з них були справжніми студійними ремейками (наприклад, “Керрі”, “Розкрадачка гробниць”), тоді як інші були діпфейками: Бред Пітт у “Сяйві”, Вілл Сміт у “Матриці”, Шарліз Терон у “Капітані Марвел”, Кріс Пратт в “Індіані Джонсі”
— описала процес дослідження Джилліан Мерфі, викладач прикладної психології в Університетському коледжі Корка, Ірландія.
Подальше обговорення переглянутих кінофільмів (як справжніх, студійних, так і фейкових ремейків) показало, що в головах у глядачів утворилася каша з брехні та фактів. Люди не просто не відрізнили реальне кіно від кінофільму, створеного AI. Їхня психіка сформувала ще й історії, пов’язані з кінострічками, яких ніколи не існувало. Наприклад, учасники дослідження абсолютно серйозно доводили, що у якомусь році в Голлівуді хтось перезняв «Індіану Джонса» (побачений ними діпфейк). Вони «пам’ятали» реакцію інших глядачів на цей ремейк і розмірковували, наскільки вдалою виявилася кінопрем’єра та наскільки прибутковим був подальший прокат.

Отже, маємо справу з формуванням хибних спогадів. Вони виникли у 49% піддослідних, водночас багатьом учасникам краще запам’ятався підроблений ремейк, ніж оригінальний фільм. Є про що подумати, але…

Що таке пам’ять

Як зазначили дослідники, людська пам’ять не працює за прямолінійним принципом. Це не відеокамера. Спогади реконструктивні та змінюються під впливом інформації, отриманої згодом. Вони — результат логічних висновків, ментального досвіду, оцінок оточення і навіть уявних ситуацій чи снів людини. Тож ефект дезінформації людина може створити мимовільно, без будь-якого втручання AI.

Водночас дослідники припускають, що помилкові спогади можуть формувати тексти, написані із залученням LLM (великих мовних моделей), вірусної реклами та коротких роликів, опрацьованих штучним інтелектом. Втім, плутанину в голові у глядача та читача можуть викликати навіть звичайні авторські відео й текстові описи.

Головне побоювання полягає в тому, що гіперреалістичні діпфейки як форма підроблених медіа можуть зробити сприйнятливішими до хибних спогадів великі групи людей (аж до глобального масштабу). Але прямої доказової бази поки що зібрати не вдалося.

Плюси й мінуси

Як зазначено в дослідженні, діпфейки, якими спочатку займалася професійна Reddit-спільнота, набули поганої слави, щойно доступ до технології отримала широка інтернет-аудиторія. У 2019 році компанія DeepTrace, що спеціалізується на кібербезпеці, визначила, що 95%–96% діпфейкових роликів у мережі — це створена за допомогою AI порнографія. Обличчя знаменитостей і політиків накладали на обличчя порноакторів. Майже всі ці ролики були створені без їхньої згоди. Але в тому ж 2019 році на сайті Collider діпфейкам було надано прямо протилежну оцінку.
Протягом п’яти років діпфейки розвинуться настільки, що, ймовірно, ми будемо дивитися, як Мерилін Монро грає одну з головних ролей разом із Гітом Леджером в абсолютно оригінальних художніх фільмах
— цитують дослідники статтю видання.
Справді, «присутність» AI на знімальних майданчиках дає змогу легко накладати обличчя героїв на обличчя дублерів і каскадерів. Відпадає необхідність складного недешевого гриму та виготовлення спеціальних костюмів. Режисерам не треба ускладнювати сцени, щоб «приховати» обличчя двійника.

Тобто технологія діпфейків відкрила для кіноіндустрії можливість швидкого та дешевого виробництва стрічок. Попри те, що більшість опитаної аудиторії висловила негативне ставлення до діпфейків у кіно- та відеопродукції, цей тренд зупинити вже не можна. Залишилось з’ясувати, які механізми захисту глядачів від появи надмірних хибних спогадів мають бути вироблені.

Водночас самі дослідники визнали, що кіношні діпфейки все-таки не мають критичного впливу на пам’ять глядачів. Вчені схильні розглядати фейкового Бреда Пітта чи Шарліз Терон не як загрозу психіці любителів кіно, а як культурне явище.

Проте, як ми вже писали, наразі фахівці обговорюють необхідність якнайшвидшого введення маркерів та водяних знаків для текстів, створених за допомогою великих мовних моделей. Цілком можливо, що такі маркери будуть потрібні й для відеопродукції, створеної із залученням AI. Принаймні це інформуватиме глядачів про те, що вони дивляться — оригінальний твір чи діпфейк.