Очам не вірю! Як deepfakes впливають на наше життя

Згадаймо знамениту сцену із фільму «Форест Гамп», де герой Тома Генкса стоїть в черзі в Білому домі, аби потиснути руку президенту Джону Кенеді. Там в оригінальну відеохроніку «врізали» актора, який знімався через 30 років після смерті президента.

Або фрагмент із фільму «Форсаж 7» 2015 року, де на кілька секунд з’являється актор Пол Уокер. Хоча він помер ще у 2013. Насправді, у тому фрагменті зіграв брат Уокера, а за допомогою технологій автори фільму вставили обличчя покійного брата.

Такі технології ще кілька років тому були доступні тільки для великих кіновиробництв. Вони вимагали високої професійності акторів, інженерів та потужної технічної бази. Зараз це може поміститися у смартфоні будь-якої людини.

Як голівудські зірки потрапляють у фейкові порно-відео, як можна дивитися «крізь одяг» та як це може вплинути на межі вашої приватності?

Користувачі ресурсу Reddit дуже люблять актора Ніколаса Кейджа. Люблять настільки, що хочуть бачити його в усіх фільмах. Тому в мережі з’являються відео, де обличчя Кейджа замінює обличчя справжніх акторів: він з’являється у «Темному лицарі», замінює обличчя Джеймса Франко у «Горе-творці» або «грає» дівчину Cупермена.

Програма FakeApp дає можливість «поміняти» обличчя будь-кому. Вона стала доступною з 2018 року, а посилання на скачування та посібники з використання знайти в мережі дуже просто.

Творці таких фейкових відео пішли далі — на одному із найбільших порносайтів PornHub і досі є сотні відео, де замість справжніх облич порноактрис — знаменитості: Емма Вотсон, Скарлет Йохансон, Гал Гадот. Дісталося навіть Мішель Обамі. Спільноти користувачів, які діляться таким контентом, на Reddit називаються deepfakes. Це і дало назву відео із вмонтованими обличчями.

Колумніст The New York Times Кевін Руз разом із анонімним редактором таких відео показав, скільки часу і ресурсів потрібно на їхнє виготовлення. Кілька годин, кілька сотень фото — і ваше обличчя може замінити Раяна Гослінга чи Джейка Джилленгола.

Однак тут важливі деталі: форма обличчя, колір шкіри, розріз очей. Що більше схожі обличчя, то менше помітний монтаж. Відібрати фото потрібно із різних ракурсів, щоб максимально повно репрезентувати обличчя для програми.

За такою технологією монтувалися відео із Дональдом Трампом, Бараком Обамою.

Саманта Коул, журналістка видання Vice, аналізувала коментарі підписників у таких спільнотах. Окрім селебрітіз, до порновідео закликали вмонтовувати своїх колишніх партнерів, тих, на кого «запали», однокласників та їхніх батьків.

Варто лише скачати достатню кількість фото із соціальних мереж та знайти більш-менш схожу порно-зірку.

Для цього навіть створили спеціальні додатки до веб-браузерів: Porn World Doppelganger, Porn Star By Face, FindPornFace.

Як загрозу поширення таких відео розуміють і самі платформи: Twitter та Reddit видаляють спільноти, а PornHub — відео (хоча їх завантажують знову).

Заданий тренд підхопила масова культура. Схожі механізми стають дедалі доступнішими. Згадаймо нейромережу FaceSwap, за допомогою якої дві людини в кадрі «обмінюються обличчями», або нові фільтри від Snapchat, які можуть змінити вам стать чи зробити дитиною.

Завдяки таким технологіям можна «оживляти» фотографії. Зчитавши міміку людини під час мовлення, можна перенести ці рухи на зображення.

Або вкласти до конкретних вуст слова, які ніколи ними не промовлялися. От наприклад, Марк Цукерберг «сказав» те, чого насправді ніколи не говорив.

У червні створили програму під назвою DeepNude, за допомогою якої можна роздягнути жінку на фото. Цей додаток використовував нейромережу та створював зображення оголеного тіла. Особливість — це працює виключно із жінками. Якщо підвантажити фото чоловіка, то з’явиться оголене тіло із вульвою.

27 червня додаток видалили. Розробник із ніком Alberto пояснив, що дадаток оголював тільки жінок, бо в інтернеті набагато простіше знайти фото оголеного жіночого тіла.

Акаунт додатку також пояснює, що проект створили для розваги.

«Ми думали, що будемо продавати його кілька разів на місяць… Ми ніколи не думали, що він стане таким вірусним, що ми не зможемо контролювати його трафік».

Як із цим боротися?

Американський сенатор Марко Рубіо вже назвав такі фейкові відео загрозою національній безпеці.

«Раніше для цього потрібні були десять літаків, ядерна зброя та ракети дальньої дії. Сьогодні ж достатньо створити реалістичне фейк-відео, яке може підірвати вибори, що спричинить велику кризу та вже нас послабить».

Тепер уявіть, що в мережі з’являється відео, де фейковий Дональд Трамп закликає бомбардувати Північну Корею. Або на перший погляд справжній Володимир Путін оголошує наступ на Україну.

Над проблемою діпфейків уже працюють структури, підпорядковані Пентагону. Наприклад, науковці Університету Колорадо в Денвері намагаються створювати подібні механізми для того, щоб краще розуміти, як із ними боротися.

Роберт Боулз, науковець каліфорнійської компанії SRI international, створює програми, які вміють розпізнавати фейкові відео. Програма аналізує рухи обличчя на відео та співставляє із раніше обробленими, таким чином визначає монтаж. Він пропонує, щоб, наприклад, при завантаженні відео до Facebook проходив процес перевірки на deepfake.

Джеф Сміт із Університету Колорадо каже, що «за кілька років технології будуть у нас у кишені. Натиснеш кнопку — і станеш діпфейком».