Top.Mail.Ru

Наш подход бустит продажи. Вы платите за результат!

Заказать звонок
Телефон отдела продаж:
8 (800) 775-16-41
Наш e-mail:
mail@texterra.ru
Заказать услугу
Киану Ривз в Питере и с балалайкой: как сегодня делают дипфейки Редакция «Текстерры»
Редакция «Текстерры»

На днях завирусился ролик, в котором сцену из фильма «Брат», где Данила Багров ходит по Санкт-Петербургу, сыграл Киану Ривз. Разбираемся, качественный ли это дипфейк, где еще засветился «лже-Киану» и кто все это сделал.

Читайте также
22 июн 2023
98 659
Окупится 16 раз за год — названа самая выгодная франшиза

В списке лучших – ПВЗ Ozon, киберклубы, детские IT-школы.

10 окт 2023
84 300
«ВКонтакте» 17 лет! Вот 14 невероятных фактов о соцсети

Самые популярные авторы — не звезды, а название появилось благодаря… радио. Про эти и еще 12 фактов о лидирующей в России соцсети читайте ниже

17 окт 2023
72 068
Новый закон о рекламе – что изменится с 1 сентября [обновлено]

Стала известна сумма штрафов для тех, кто не маркирует интернет-рекламу.

С чего все началось

Видео, в котором Киану Ривз в образе Данилы Багрова гуляет по Питеру под звучащее стихотворение «Родное» вышла в группе ВКонтакте «Это Киану» 5 июля. Ролик тут же подхватили СМИ и другие группы в социальной сети — только ВК видео набрало уже более 680 тысяч просмотров. Позже пользователи предложили свой вариант, наложив на видеоряд песню «Полковнику никто не пишет», которая звучит во втором «Брате». Получилось еще более эпично.

А главное — кажется, будто Нео из «Матрицы» действительно улыбается, гуляя по улицам Петербурга (к слову, обычно Ривз выглядит куда мрачнее). Достичь такого эффекта удалось при помощи нейросети, создающей так называемые дипфейки. Дипфейк — это методика обработки видеоряда искусственным интеллектом, которая позволяет заменять лицо говорящего на совершенно другое, при этом раскрыть такую «подмену» крайне сложно.

В других видео из той же группы ВК Ривз поет частушки про импортозамещение, играя на балалайке в лесу.

Нет шоколадки бренда «Марс»,

Наверняка хороший знак.

Как офигеет англичанин,

Когда увидит козинак.

Дипфейк Киану Ривза в одном из роликов группы «Это Киану»

Дипфейк Киану Ривза

Достаточно посмотреть на выражение лица Киану Ривза — оно в ролике с частушками довольно странное для обычно мрачного актера

Ролик набрал уже почти полмиллиона просмотров. И это далеко не предел — видео с Киану, готовящим окрошку, набрало более 950 тысяч просмотров. Внушительная цифра для ВК.

Продвинем ваш бизнес
Подробнее

Киану Ривз в Питере — точно дипфейк?

С момента появления дипфейков ученые и программисты стали задумываться, как можно отличить сгенерированную нейросетью замену лица от настоящего человека. Пока что сделать это можно.

От монтажа технология дипфейк отличается по большей части универсальностью, гибкостью и быстротой — нейросеть способна в реальном времени менять лицо человека. Вы могли и сами это видеть, если пользовались популярным не так давно приложением FaceApp. Обученная на массиве из тысяч фотографий, нейросеть может достаточно точно подменять лица. И чем больше фото имеется у программы в распоряжении, тем точнее эта замена.

Впервые такая нейросеть была представлена в 2017 году — тогда ученые «заставили» на тот момент президента США Барака Обаму произносить слова из созданной ими звуковой дорожки, двигая губами в соответствии с ними. Всего за пять лет ученые и энтузиасты помогли этой технологии сделать огромный скачок, и теперь нейросети заменяют все лицо полностью, копируют мимику и даже могут изобразить, что человек моргает.

Читайте также
Для «М.Видео» новости пишет нейросеть. За пиар – зачет!

Да, про моргание мы сказали не просто так. Именно с этим дипфейки, как правило, справляются не так хорошо. Если внимательно посмотреть видео из группы «Это Киану», то можно заметить, что герой роликов никогда полностью не закрывает глаза при моргании — он прикрывает их наполовину, однако реальные люди, моргая бессознательно, так делать не могут.

Помните дипфейкового «Олега Тинькова», который предлагал 50%-ный бонус при пополнении кабинета на «Тинькофф Инвестиции»? На удивление, моргал он правильно, но в этом случае мы увидели другой популярный «косяк» создателей дипфейков — несоответствие движений губ и голоса. «Лже-Киану Ривз» в видео по большей части молчит, а в ролике с частушками, хоть его губы и двигаются в такт тексту, но… стал бы настоящий голливудский актер петь на русском языке да еще и таким голосом?

Ну, и главное: распознать дипфейк можно по ошибкам нейросети. Программа, фактически, монтирует каждый кадр видео, стараясь заменить лицо так, чтобы точно попасть в освещение. При наличии бликов ей это удается плохо. Например, в видео, начиная с 13 секунды есть отрывок, когда дипфейковый Киану Ривз набирает в руки воду и бежит к оператору — в этот момент можно заметить глюк нейросети, который открывает маску актера, нанесенную на другого человека.

Впрочем, не стоит думать, будто проделать трюк с заменой лица под силу лишь нейросети. Отнюдь.

Сделать дипфейк можно и обычными редакторами видео, 3D-сцен, монтажа и тому подобное. Это просто вопрос времени и итогового качества изображения

Александр Белов, project-менеджер Texterra

Как сделать дипфейк самому?

Раньше для того, чтобы заменить лицо человека в видео, вам пришлось бы самостоятельно писать нейросеть, тестировать ее и устранять баги. Сегодня все это сделано за вас: на рынке доступны десятки приложений и сервисов, которые позволяют создавать дипфейки как онлайн в браузере, так и, например, в приложении на мобильном устройстве.

Существуют готовые нейросети, есть только вопрос качества реализации. Например, те же самые мобильные приложения по типу Faceapp, которые меняют голос, лицо, могут оживлять старые фото, вставлять тебя в видео и так далее. Их куча, просто какие-то берут и доводят до ума, а какие-то используются «как есть».

Александр Белов, project-менеджер Texterra

Среди онлайн-сервисов, которые позволяют создавать дипфейки, мы бы выделили Deepfakes Web. На нем можно легко заменить лицо человека на видео на лицо знаменитости, например. При этом, конечно, чем лучше качество исходного видео, тем более правдоподобной будет замена лица. В этом сервисе все довольно просто — загружаете видео, затем выбираете так называемый фейссет, в котором содержатся фото того лица, на которое вы хотите заменить человека в ролике. Дальше нейросеть все делает за вас, и вы получите довольно правдоподобный дипфейк.

Самое крутое, что этот дипфейк будет моргать и его губы будут двигаться точно так же, как у «исходного человека». Но есть и минус — лицо станет размытым, благодаря чему распознать дипфейк опытному пользователю не составит труда.

Для замены лица также можно воспользоваться и мобильными приложениями. Кроме самого популярного — FaceApp — есть еще китайское Zao и Doublicat. Оба приложения бесплатны, но отличаются по функционалу: если первое позволяет полноценно заменять лицо в реальном времени, снимая себя на селфи-камеру, то второе лишь использует ваше фото и вставляет его в выбранный популярный мем, например, с Лео Ди Каприо из «Великого Гэтсби».

Чаще всего нейросети для генерации дипфейков пишут программисты-энтузиасты «на коленке». Для обучения они используют открытые или платные библиотеки и тратят часы на доработку программы. Такой путь требует знаний и опыта, так что подходит далеко не всем.

Можно ли получить срок за дипфейк?

Дипфейки сегодня используются даже на телевидении. Так, Брюсу Уиллису заплатили «1-2 миллиона долларов» за согласие использовать свою внешность в рекламе «Мегафона». Вы наверняка ее уже видели. Но что если «герой» дипфейка не давал своего согласия?

Дипфейк Брюса Уиллиса

Использование дипфейка Брюса Уиллиса в рекламе «Мегафон» юридически ничего не нарушает

Подмена лица, фактически, является обманом. Хоть мы и понимаем, что Киану Ривз не мог ходить по Петербургу в «Брате», однако с тем же успехом технологию дипфейк можно использовать и для создания реальных «компрометирующих» видео. Будет ли в таком случае создатель роликов наказан по закону?

Во многом зависит от страны. Например, в США уголовную ответственность можно получить за создание политических дипфейков, а в Китае — просто за публикацию таких видео без соответствующего дисклеймера.

Также многое определяется тем, как вы будете использовать дипфейк. Если это лишь для развлечения публики, как в случае с группой «Это Киану» — одно дело. Но если замена лица используется для сокрытия улик и мошенничества — это уже статья.

Например, человек, создавший и распространивший дипфейки в России, может попасть под статьи 207.1 и 207.2 УК РФ по которым есть шанс получить от трех до пяти лет, если распространение фейковой информации (дипфейк сюда тоже относится) повлекло по неосторожности причинение вреда здоровью или смерть человека.

Кроме того, теперь у нас есть отдельная статья о дискредитации ВС РФ, по которой также можно получить внушительный срок, если созданный вами дипфейк будет затрагивать тему спецоперации. Поэтому, если решили все же попробовать эту технологию в действии, лучше ограничиться видео с собственным участием, не затрагивая никакие политические и этические аспекты, а также всегда вставлять в начало ролика дисклеймер.

Читайте также
Нейросети Сбера правят и сокращают тексты – мы это проверили
Поделиться статьей:

Новое на сайте

23 апр 2024
19 349
Дзен в 2024 году — полный гайд по развитию канала

От создания и набора подписчиков до выхода на монетизацию и стабильного заработка.

23 апр 2024
215 640
Новая боль экономики: молодежь не хочет потреблять как нормальные люди

Им всё это «дико, например» (с): пенсионные накопления; ипотека и тянущая жилы работа на одном месте; мифическая необходимость «верхнего образования».

23 апр 2024
275
Что такое мисселинг и чем он опасен

Увы, но законам мисселинг не противоречит, а значит идти жаловаться в суд бесполезно. Спасут только знания.

Смотреть все статьи

У вас есть деловой запрос? Давайте обсудим!

Оставьте свои контакты, мы свяжемся с вами в ближайшее время.

Нажимая на кнопку «Оставить заявку», вы подтверждаете свое согласие на обработку пользовательских данных

Спасибо!

Ваша заявка принята. Мы свяжемся с вами в ближайшее время.