Скандал про створення підроблених порнороликів за участю знаменитостей розгорівся з новою силою - тепер будь-хто бажаючий може випустити «фейкове» відео, не володіючи жодними особливими навичками.
Експерти сходяться на думці, що ця технологія несе в собі небезпечні для сучасного суспільства наслідки.
У грудні стало відомо про новий алгоритм машинного навчання, який дозволяє замінювати обличчя у відеороликах. Його придумав користувач під ніком deepfakes, який поділився на форумі Reddit своїм своєрідним «хобі» - за допомогою цієї технології він генерує порноролики зі знаменитостями.
Алгоритм дозволяє створити вкрай достовірний ефект анімації особи завдяки великій кількості фотографій і відео зірок в інтернеті. Система збирає весь графічний контент воєдино і компілює настільки правдоподібну «картинку», що неозброєним оком можна не помітити каверзи.
Deepfakes продемонстрував результати роботи алгоритму на порно, в якому обличчя актриси було замінено на обличчя виконавиці ролі Чудо-Жінки Галь Гадот. Минуло всього пара місяців, але випуск порнороликів з використанням штучного інтелекту вийшов на рівень конвеєрного виробництва.
Один з послідовників deepfakes випустив додаток з простим інтерфейсом, який дозволяє людині без спеціальних навичок змонтувати відео з тією зіркою, яка йому подобається. Ця програма безкоштовна, знаходиться у відкритому доступі і навіть надає уроки для новачків.
Повідомляється, що для досягнення результату користувачеві знадобляться всього лише два відеоролика зі знаменитостями в хорошій якості. Весь процес створення займає близько 12 годин.
Якщо в грудні експерти в галузі ШІ були налаштовані досить пасивно і не бачили великої шкоди у відкритті deepfakes, то за нинішньої швидкості появи нових роликів з зірками залишатися осторонь вже не можна.
Сам програміст не бачить в своєму алгоритмі нічого поганого, посилаючись на те, що його публікація зацікавила велику кількість людей, які тепер займаються новими технологіями.
Два місяці тому Motherboard зв'язалася з ученим в сфері комп'ютерних наук з правозахисної організації «Фонд електронних рубежів» Пітером Екерслі, щоб обговорити наслідки впровадження такого технології в повсякденне життя.
Експерт визнав, що на поточний момент створити власний ролик на базі нейромереж може кожен, але їм нікого не вдасться обдурити - через поки ще великої кількості неузгодженостей і неточностей. «Такий стан речей збережеться ще як мінімум рік або два», - уклав Екерслі.
Як виявилося, вистачило всього двох місяців. На Reddit з'явилися нові порноролики - з «участю» актрис Джесіки Альби і Дейзі Рідлі - і їх якість вже значно перевершує грудневі відео.
Правдоподібність цих роликів настільки висока, що їх стали приймати за справжні творці ресурсів, що публікують інтимні фотографії знаменитостей.
Один з найпопулярніших подібних сайтів опублікував відео з актрисою Еммою Уотсон, де вона приймає душ, з заголовком «раніше не опубліковані кадри з приватної колекції». Проте, цей ролик був змонтований за технологією deepfakes, а сама Емма Уотсон не має до нього ніякого відношення, крім того, що її обличчя було використано без будь-якої згоди.
Незважаючи на те, що користувачів, яких зацікавило машинне навчання, більше приваблює створення саме порнороликів, трапляються і винятки. Один з них - юзер Z3ROCOOL22, який поєднав фрагменти виступів президента Аргентини Маурісіо Макрі і Адольфа Гітлера, створивши «нового» політика.
В результаті простий у використанні застосунок дозволяє кожному без особливих зусиль створювати фейкові відео - від інтимного відео зі своєю колишньою дівчиною в якості «порнопомсти» до виступу державного діяча, який може сказати з трибуни все що завгодно.
Ця технологія має потенціал назавжди змінити споживання медіа-контенту в інтернеті. Висока швидкість вдосконалення алгоритму і епоха «фейкових» новин можуть привести до того, що відрізнити брехню від правди стане практично неможливо.
«Той факт, що ця технологія доступна для кожного, лякає. Через це руйнується вся концепція довіри і благонадійності », - вважає заслужений професор прикладної етики Дебора Джонсон.
Дійсно, створений алгоритм в кінцевому рахунку торкнеться не тільки знаменитостей, які і так часто стають жертвами fake news, але і політику, журналістику і навіть сферу безпеки.
Технологія явно не обмежиться тільки заміною осіб, і поки залишається лише здогадуватися, що ще буде сфабриковано в інтернет-просторі. Але якщо проблемою брехливих новин вже зайнялися на рівні найбільших соціальних мереж світу і навіть урядів деяких країн, то проблема «фейкового» порно поки в парламентах провідних країн навіть не обговорюється.