«Двойник» актера также учит фотографироваться в городе и танцевать татарский танец. А еще он… улыбается!

На днях завирусился ролик, в котором сцену из фильма «Брат», где Данила Багров ходит по Санкт-Петербургу, сыграл Киану Ривз. Разбираемся, качественный ли это дипфейк, где еще засветился «лже-Киану» и кто все это сделал.

С чего все началось

Видео, в котором Киану Ривз в образе Данилы Багрова гуляет по Питеру под звучащее стихотворение «Родное» вышла в группе ВКонтакте «Это Киану» 5 июля. Ролик тут же подхватили СМИ и другие группы в социальной сети — только ВК видео набрало уже более 680 тысяч просмотров. Позже пользователи предложили свой вариант, наложив на видеоряд песню «Полковнику никто не пишет», которая звучит во втором «Брате». Получилось еще более эпично.

А главное — кажется, будто Нео из «Матрицы» действительно улыбается, гуляя по улицам Петербурга (к слову, обычно Ривз выглядит куда мрачнее). Достичь такого эффекта удалось при помощи нейросети, создающей так называемые дипфейки. Дипфейк — это методика обработки видеоряда искусственным интеллектом, которая позволяет заменять лицо говорящего на совершенно другое, при этом раскрыть такую «подмену» крайне сложно.

В других видео из той же группы ВК Ривз поет частушки про импортозамещение, играя на балалайке в лесу.

Нет шоколадки бренда «Марс»,

Наверняка хороший знак.

Как офигеет англичанин,

Когда увидит козинак.

Дипфейк Киану Ривза в одном из роликов группы «Это Киану»

Достаточно посмотреть на выражение лица Киану Ривза — оно в ролике с частушками довольно странное для обычно мрачного актера

Ролик набрал уже почти полмиллиона просмотров. И это далеко не предел — видео с Киану, готовящим окрошку, набрало более 950 тысяч просмотров. Внушительная цифра для ВК.

Киану Ривз в Питере — точно дипфейк?

С момента появления дипфейков ученые и программисты стали задумываться, как можно отличить сгенерированную нейросетью замену лица от настоящего человека. Пока что сделать это можно.

От монтажа технология дипфейк отличается по большей части универсальностью, гибкостью и быстротой — нейросеть способна в реальном времени менять лицо человека. Вы могли и сами это видеть, если пользовались популярным не так давно приложением FaceApp. Обученная на массиве из тысяч фотографий, нейросеть может достаточно точно подменять лица. И чем больше фото имеется у программы в распоряжении, тем точнее эта замена.

Впервые такая нейросеть была представлена в 2017 году — тогда ученые «заставили» на тот момент президента США Барака Обаму произносить слова из созданной ими звуковой дорожки, двигая губами в соответствии с ними. Всего за пять лет ученые и энтузиасты помогли этой технологии сделать огромный скачок, и теперь нейросети заменяют все лицо полностью, копируют мимику и даже могут изобразить, что человек моргает.

Да, про моргание мы сказали не просто так. Именно с этим дипфейки, как правило, справляются не так хорошо. Если внимательно посмотреть видео из группы «Это Киану», то можно заметить, что герой роликов никогда полностью не закрывает глаза при моргании — он прикрывает их наполовину, однако реальные люди, моргая бессознательно, так делать не могут.

Помните дипфейкового «Олега Тинькова», который предлагал 50%-ный бонус при пополнении кабинета на «Тинькофф Инвестиции»? На удивление, моргал он правильно, но в этом случае мы увидели другой популярный «косяк» создателей дипфейков — несоответствие движений губ и голоса. «Лже-Киану Ривз» в видео по большей части молчит, а в ролике с частушками, хоть его губы и двигаются в такт тексту, но… стал бы настоящий голливудский актер петь на русском языке да еще и таким голосом?

Ну, и главное: распознать дипфейк можно по ошибкам нейросети. Программа, фактически, монтирует каждый кадр видео, стараясь заменить лицо так, чтобы точно попасть в освещение. При наличии бликов ей это удается плохо. Например, в видео, начиная с 13 секунды есть отрывок, когда дипфейковый Киану Ривз набирает в руки воду и бежит к оператору — в этот момент можно заметить глюк нейросети, который открывает маску актера, нанесенную на другого человека.

Впрочем, не стоит думать, будто проделать трюк с заменой лица под силу лишь нейросети. Отнюдь.

Сделать дипфейк можно и обычными редакторами видео, 3D-сцен, монтажа и тому подобное. Это просто вопрос времени и итогового качества изображения

Александр Белов, project-менеджер Texterra

Как сделать дипфейк самому?

Раньше для того, чтобы заменить лицо человека в видео, вам пришлось бы самостоятельно писать нейросеть, тестировать ее и устранять баги. Сегодня все это сделано за вас: на рынке доступны десятки приложений и сервисов, которые позволяют создавать дипфейки как онлайн в браузере, так и, например, в приложении на мобильном устройстве.

Существуют готовые нейросети, есть только вопрос качества реализации. Например, те же самые мобильные приложения по типу Faceapp, которые меняют голос, лицо, могут оживлять старые фото, вставлять тебя в видео и так далее. Их куча, просто какие-то берут и доводят до ума, а какие-то используются «как есть».

Александр Белов, project-менеджер Texterra

Среди онлайн-сервисов, которые позволяют создавать дипфейки, мы бы выделили Deepfakes Web. На нем можно легко заменить лицо человека на видео на лицо знаменитости, например. При этом, конечно, чем лучше качество исходного видео, тем более правдоподобной будет замена лица. В этом сервисе все довольно просто — загружаете видео, затем выбираете так называемый фейссет, в котором содержатся фото того лица, на которое вы хотите заменить человека в ролике. Дальше нейросеть все делает за вас, и вы получите довольно правдоподобный дипфейк.

Самое крутое, что этот дипфейк будет моргать и его губы будут двигаться точно так же, как у «исходного человека». Но есть и минус — лицо станет размытым, благодаря чему распознать дипфейк опытному пользователю не составит труда.

Для замены лица также можно воспользоваться и мобильными приложениями. Кроме самого популярного — FaceApp — есть еще китайское Zao и Doublicat. Оба приложения бесплатны, но отличаются по функционалу: если первое позволяет полноценно заменять лицо в реальном времени, снимая себя на селфи-камеру, то второе лишь использует ваше фото и вставляет его в выбранный популярный мем, например, с Лео Ди Каприо из «Великого Гэтсби».

Чаще всего нейросети для генерации дипфейков пишут программисты-энтузиасты «на коленке». Для обучения они используют открытые или платные библиотеки и тратят часы на доработку программы. Такой путь требует знаний и опыта, так что подходит далеко не всем.

Можно ли получить срок за дипфейк?

Дипфейки сегодня используются даже на телевидении. Так, Брюсу Уиллису заплатили «1-2 миллиона долларов» за согласие использовать свою внешность в рекламе «Мегафона». Вы наверняка ее уже видели. Но что если «герой» дипфейка не давал своего согласия?

Использование дипфейка Брюса Уиллиса в рекламе «Мегафон» юридически ничего не нарушает

Подмена лица, фактически, является обманом. Хоть мы и понимаем, что Киану Ривз не мог ходить по Петербургу в «Брате», однако с тем же успехом технологию дипфейк можно использовать и для создания реальных «компрометирующих» видео. Будет ли в таком случае создатель роликов наказан по закону?

Во многом зависит от страны. Например, в США уголовную ответственность можно получить за создание политических дипфейков, а в Китае — просто за публикацию таких видео без соответствующего дисклеймера.

Также многое определяется тем, как вы будете использовать дипфейк. Если это лишь для развлечения публики, как в случае с группой «Это Киану» — одно дело. Но если замена лица используется для сокрытия улик и мошенничества — это уже статья.

Например, человек, создавший и распространивший дипфейки в России, может попасть под статьи 207.1 и 207.2 УК РФ по которым есть шанс получить от трех до пяти лет, если распространение фейковой информации (дипфейк сюда тоже относится) повлекло по неосторожности причинение вреда здоровью или смерть человека.

Кроме того, теперь у нас есть отдельная статья о дискредитации ВС РФ, по которой также можно получить внушительный срок, если созданный вами дипфейк будет затрагивать тему спецоперации. Поэтому, если решили все же попробовать эту технологию в действии, лучше ограничиться видео с собственным участием, не затрагивая никакие политические и этические аспекты, а также всегда вставлять в начало ролика дисклеймер.

#
Новости
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна.