Как Deepfake захватили многие сферы жизни? Во благо или во вред используется наложение лиц и подделывание голоса? На эти вопросы мы ответим в этой статье. Читайте у нас: почему технология Deepfake приобрел плохую репутацию, как он применяется для защиты свидетелей, распространению фейковых новостей, пересозданию исторических событий, в мемах и юмористических шоу.
Deepfake в индустрии взрослого кино
В конце 2017 года пользователь Reddit опубликовал пост с фейковой видеозаписью порнографического содержания. Для создания видеоролика использовался ИИ (искусственный интеллект) для изменения лица. Лицо девушки было заменено на лицо известной американской актрисы. Интернет взорвался: появляется все больше различных приложений, позволяющие примерять лица известных людей.
С того момента технология Deepfake завоевала нелучшую репутацию. Теперь достаточно иметь фотографию человека, чтобы наложить его лицо на тело другого. Так, например, одна женщина обнаружила, что ее лицо используют без разрешения в фильмах 21+. Кроме того, стали появляться ролики с политиками, которые разглашают фейковые новости.
Но не все так плохо. Есть масса различных приложений, которые применяются для развлекательных целей, а также для собственной защиты и анонимизации.
Защита свидетелей
В июне 2020 года вышел документальный фильм «Добро пожаловать в Чечню» от HBO. Фильм повествует о том, как выживали члены LGBTQ в Чечне. Для того чтобы защитить этих людей использовалась технология Deepfake. Были изменены лица и голоса, а также искажены некоторые места. Эта первый в истории дипфейк, который использовался для защиты свидетелей.
Этот фильм позволил рассказать о несправедливости по отношению LGBTQ-активистам без опасности быть пойманными.
Deepfake творит историю
В мае 2020 года исследователи из MIT выложили проект по созданию альтернативной истории о посадке «Аполлона-11» на Луну в 1969. Так, они использовали голос и лицо президента Никсона для передачи новости о том, что космонавты потерпели крушение (в реальности они благополучно высадились на Луну). Текст на самом деле настоящий, он был написан в случае, если что-то пойдет не так. Но вот для его чтения был приглашен актер.
Дипфейки могут также восстанавливать исторические события. В феврале 2020 года журнал Time пересоздал Мартина Лютера Кинга. Этому проекту уже 4 года, и он использует не только программное обеспечение, но и множество сенсорных устройств, чтобы передать все анатомические детали борца за расовую справедливость.
Дипфейки в мемы
Развлекательная сфера тоже не отстает. Один из мемов под названием «Baka Mitai» стал очень популярен в сети Интернет. Так, в основе дпифейка лежит подстраивание фотографии под видео. Лицо на фотографии полностью повторяет движения человека на видео. Сам алгоритм был взят их одной статьи 2019 года, где исследователи пользовались фреймворком PyTorch. Обучение осуществлялось на более чем 20,000 видео, взятых из YouTube.
«Baka Mitai» воспроизводит движения по видео не с очень высокой точностью, от этого и лица принимают смешную мимику. Этот проект помог дальнейшему распространению дипфейков. Хотя некоторые журналисты опасаются, что сатира и ирония может превратиться в оскорбления.
Реклама: ситуация, когда знаменитости сидят дома
Из-за загруженного графика сложно собрать звезд спорта в одной комнате для съемок коммерческой рекламы. В условиях пандемии это и вовсе стало трудновыполнимо. Поэтому, когда вам нужно снять рекламный ролик в Лос-Анджелесе с разными спортсменами единственный вариант — это сделать deepfake. В августе видеостриминговый сервис Hulu разместил рекламный видеоролик, в котором спортсмены оставляют свои домашние дела и возвращаются в спорт. Мы видим, как эти звезды отказываются от выпечки на закваске, от рисования на холсте, от ремонта в пользу баскетбольных мячей и хоккейных клюшек. Но мы не видим, что на самом деле это актеры с наложенными на них лицами спортсменов.
Нейронная сеть была обучена на кадрах игроков, снятых с помощью Zoom. Компьютерные уловки использовались для подделки такого рода вещей в течение многих лет, но дипфейки делают это проще и дешевле, чем когда-либо, а 2020 год дал огромный толчок для развития этой технологии. К тому же, знаменитости могут сниматься в рекламах в большем количестве, по сути разрешив использовать своё лицо. Добавим, что другие рекламодатели, включая ESPN, также экспериментировали с дипфейками.
Политические выступления
В сентябре 2020, в преддверии президентских выборов в США, беспартийная правозащитная группа выпустила пару дипфейков. В них использовались фейковые версии президента России Владимира Путина и лидера Северной Кореи Ким Чен Ына, которые передают одно и то же сообщение о том, что ни одному из них не нужно вмешиваться в выборы в США, потому что Америка сама разрушит свою демократию.
Это не первое использование дипфейков во время политической кампании. В феврале индийский политик Манодж Тивари использовал дипфейки в видеоролике со своей предвыборной кампанией, чтобы создать впечатление, будто он говорит на харианви — диалекте хинди, на котором говорит его электорат. Многие обеспокоены способностью ИИ сеять путаницу и срывать политические кампании.
ТВ-шоу со фейковыми знаменитостями
Создатели Южного Парка довели технологию deepfake до крайности. В октябре Трей Паркер и Мэтт Стоун представили свое новое творение, Sassy Justice, первое дипфейк-телешоу. Еженедельное сатирическое шоу вращается вокруг персонажа Sassy Justice, местного репортера новостей с лицом Дональда Трампа. Sassy берет интервью у таких же фейковых людей, например, у Джареда Кушнера (зять Трампа), лицо которого наложено на ребенка. Благодаря Sassy Justice дипфейки вышли за рамки маркетинговых уловок и стали популярными в видеоблогинге. При создании персонажей используются не только технологии, но и юмор, что ожидаемо от творцов Южного Парка.
Если вы заинтересовались технологией Deepfake, хотите сами создавать и эксперементировать с этой технологией, то проходите наш специализированный курс «VISI: Computer Vision» в лицензированном учебном центре обучения и повышения квалификации Data Scientist’ов и IT-специалистов в Москве.