Возвращение юности и воскрешение мертвых: как устроена технология дипфейк

14.11.2021, 12:00

Видео программы «Чудо техники»

В Интернете популярны ролики, в которых известным актерам приделывают чужие лица или тела. Это одно из самых зрелищных применений искусственного интеллекта — так называемый дипфейк. Технология работает так круто, что открывает множество новых возможностей как для добрых, так и не очень дел.

Восемь лет назад много шума наделал видеоролик, в котором Одри Хепбёрн через два десятилетия после своей смерти рекламировала шоколад. Тогда, чтобы воссоздать образ актрисы, потребовались специальное оборудование и целая команда специалистов, 3D-модель лица, компьютерная графика и год работы. Непросто делалась и реклама виски с участием Брюса Ли.

Но все это в прошлом. То же самое сегодня может сделать один человек, и гораздо быстрее с помощью технологии дипфейк. О ней начали говорить в 2018 году. Николас Кейдж появился в фильмах, где не снимался. Затем интернет-аудиторию сразила танцующая британская королева. В одном из роликов участник интеллектуальных игр Александр Друзь оказался во всех ролях сериала «Друзья». Поменять лицо теперь можно кому угодно. В американском штате Флорида в музее художника-сюрреалиста Дали с посетителями общается «живой» Сальвадор и даже делает селфи.

Технологию дипфейка (не чтобы кого-то обманывать, а в чисто научных целях) разрабатывали сразу несколько команд исследователей. Например, Университет Вашингтона запустил проект «Синтезируя Обаму», где в уста 44-го президента США вкладывали любые речи, а в Университете Стэнфорда переносили мимику актеров на известных людей.

Свои разработки есть и в России. Одной из них пользуется Сергей Логинов, его творения набирают миллионы лайков. Само название технологии образовалось из терминов deep learning (глубинное обучение) и fake (подделка). Как это работает? Нейросеть сначала обучается, анализирует десятки тысяч изображений нужного лица в разных ракурсах и с разными эмоциями, а затем создает так называемую цифровую маску, которая накладывается на дублера. Например, на лицо бизнесмена Илона Маска накладывается лицо актера Роберта Дауни — младшего. Что важно — чем дольше обучение нейросети, тем лучше результат.

Появляются сейчас и приложения, которые позволяют обычным пользователям создавать более простые подделки, а некоторые программы даже делают дипфейк в режиме реального времени. Программа адаптирует работу под конкретных перевоплощаемых, результат получается разной степени похожести. Это, конечно, открывает новые возможности в кино и рекламе. Британцы выпустили программу, которая меняет мимику актеров, чтобы она совпадала с дубляжом на разных языках, например на французском.

Дипфейк позволяет артистам торговать своим образом, не уставая на съемках и не старея. Недавняя российская реклама с Брюсом Уиллисом тому подтверждение. Технологию пытаются применять для воссоздания юных образов постаревших артистов. Используется этот прием и в рекламе: фейковые Жорж Милославский и Брюс Уиллис позволили роликам со своим участием стать вирусными. Впечатленные пользователи охотно делятся такими видео, а заодно распространяют рекламу.

Дипфейк проник и в психотерапию. Примером может служить фрагмент корейского документального фильма, где для матери как бы воскресили погибшую от рака дочь, чтобы облегчить боль утраты. Психиатры, правда, говорят, что такое может быть опасно.

Вероника Готлиб, врач психиатр-нарколог, руководитель центра аддиктологии: «Мы не позволяем ему завершить принятие, мы будто оставляем его в хроническом горе. Любое переживание конечно. Если мы начинаем искусственно затягивать это, может случиться хронический психический стресс».

Дипфейк стали применять и в политике. В США образ подростка, застреленного в школе, агитирует за ограничение свободного ношения оружия. В Мексике «оживили» погибших журналистов, чтобы те рассказали, за что были убиты, в знак того, что ничто не заставит их замолчать. Но, конечно, есть у дипфейка и темная сторона. Известные люди теперь постоянно становятся участниками фальшивых порнофильмов. Появились даже приложения, которые делают человека героем кино для взрослых по одной его фотографии. Довольно часто в обнаженные сцены вписывают, например, лицо актрисы Скарлетт Йоханссон.

Скарлетт Йоханссон, актриса: «Мне было 17 лет. В моей карьере был фильм такого жанра. Это был сомнительный способ заработка, это в прошлом. А на дипфейки я давно не обращаю внимания».

Это побочный эффект развития технологий, защиты от этого пока нет. С подделками, конечно, пытаются справляться. Есть уже специальные программы для проверки видео на предмет использования дипфейка. Тем не менее в Британии учительницу уволили после того, как кто-то распространил компрометирующий дипфейк с ее лицом, и доказать она ничего не смогла. А писательница из Шеффилда жаловалась на подделку в полицию, но закон в большинстве стран от таких преступлений не защищает.

В Китае введение в заблуждение дипфейками уже считается уголовным преступлением, если нет предупреждающей пометки. Мошенники, конечно, тоже осваивают перспективную технологию. Например, в Сети есть видео, где синтезированный Олег Тиньков предлагает 50-процентный бонус за инвестиции, а в ОАЭ преступники обманули сотрудников банка с помощью голосовой подделки и украли 35 миллионов долларов. Специалисты предупреждают: наши фото и видео в соцсетях тоже могут вооружить мошенников.

Могущественные технологии, как и любое оружие, могут быть использованы и во благо, и во зло. Возможно, уроки химии в школах скоро сможет вести не простой учитель, а сам Менделеев, что будет восприниматься по-особому. Но не зря и крупные технологические компании уже создают специальные комитеты по этичности применения искусственного интеллекта. Потенциальных угроз тут тоже немало.

Читайте также