Top.Mail.Ru

Наш подход бустит продажи. Вы платите за результат!

Заказать звонок
Телефон отдела продаж:
8 (800) 775-16-41
Наш e-mail:
mail@texterra.ru
Заказать услугу
Виторгана в сериале заменили на дипфейк – и это у нас законно! Редакция «Текстерры»
Редакция «Текстерры»

Произошло очень интересное событие – во втором сезоне сериала «Контакт» Максима Виторгана заменили на дипфейк, а его имя убрали из титров.

Сериал «Контакт» – один из проектов «Газпром-медиа», в котором Виторган играл мужа героини Равшаны Курковой. По словам актера, это достаточно большая и системообразующая роль.

Но теперь системообразующую роль могут исполнить нейросети. И тут возникают два вопроса, начинающиеся со слова «Как».

Как можно снять дипфейк без согласия человека?

Технологии сегодня развиваются быстрее законодательства. И не только в России. Еще ни в одной стране нет четкого объяснения, как быть с дипфейками (только пара законов в Калифорнии (США) по понятным голливудским причинам – на остальную территорию США они не распространяются). Можно, конечно, чтобы не портить реноме производителя, договориться с актером, что будете использовать его внешность в ролике или в продвижении компании, выплатить ему роялти и указать в титрах. Однако можно и ничего из этого не делать.

За неимением законодательной базы в отношении технологии дипфейков, юристы начинают «натягивать на барабан» то, что есть под рукой. Получается интересно.

Статья 1228 ГК РФ, в принципе, четко определяет, кто автор:

«Автором результата интеллектуальной деятельности признается гражданин, творческим трудом которого создан такой результат.

Не признаются авторами результата интеллектуальной деятельности граждане, не внесшие личного творческого вклада в создание такого результата, в том числе оказавшие его автору только техническое, консультационное, организационное или материальное содействие или помощь либо только способствовавшие оформлению прав на такой результат или его использованию, а также граждане, осуществлявшие контроль за выполнением соответствующих работ».

Мог Михаил Виторган своей внешностью внести творческий вклад в роль, исполняемую нейросетью? В законе об этом ни полслова – значит, нет. Тогда, возможно, он правообладатель?

Нет – согласно имеющимся законам он и не правообладатель. Вот что на этот счет гласит статья 1229 ГК РФ:

«Гражданин или юридическое лицо, обладающие исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (правообладатель), вправе использовать такой результат или такое средство по своему усмотрению любым не противоречащим закону способом. Правообладатель может распоряжаться исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (статья 1233), если настоящим Кодексом не предусмотрено иное».

А им в отношении дипфейков иное и не предусмотрено.

То есть, если делая дипфейк, автор и правообладатель ничем не оскорбили того, чье лицо или голос они использовали, то и взятки с них гладки. К тому же, в созданном нейросетями образе могут быть некоторые особенности, которые устраняют идентичность – это не Виторган, а отдельный образ, имеющий с ним сходство. В конце концов, кого ни нарисуй, на Земле обязательно найдется человек с такой же внешностью, живой или мертвый.

Кстати, некоторое отличие дипфейка от настоящего Михаила Виторгана есть – образ напоминает поправившегося Тома Харди:

Дипфейк Михаила Виторгана

Дипфейк Михаила Виторгана в сериале «Контакт»

Том Харди

Актер Том Харди

Продвинем ваш бизнес
Подробнее

Как создается столь реалистичный дипфейк человека?

За ответом на этот вопрос обратимся к эксперту.

Никита Шевцев, проектный менеджер по внедрению нейросетей TexTerra:

«Технологией дипфейк сегодня сложно кого-то удивить — вспомните хотя бы дипфейк с Обамой 2018 года или рекламу Мегафона с Брюсом Уиллисом. Для создания таких видео используются генеративно-состязательные нейросети (GAN) – в таких алгоритмах одна часть учится заменять лицо человека на реальном видео, а вторая учится распознавать подделку. И вот, когда второй алгоритм начинает путать оригинал и дипфейк — дело сделано.

Уже сегодня GAN-нейросети находятся на таком уровне, что отличить дипфейк от оригинала визуально практически невозможно. Иногда заметить что-то неладное можно по не очень богатой мимике или неморгающим глазам. Но это лишь вопрос инструментария — нейросети могут заставить лицо и моргать, и двигать мимическими мышцами.

В целом, я считаю, что это направление невероятно перспективно — при помощи дипфейков можно снимать одновременно десятки сцен с одним и тем же актером, а на выходе никакой подмены зрители не заметят. Цикл производства сократится, как и расходы студий — в выигрыше останутся все».

Надо думать – все, кроме самих актеров и знаменитостей (при нынешних дырках в законодательствах).

Читайте также:

Собеседование с нейросетью – теперь так берут на госслужбу

Искусственные телеведущие в России — вот как это устроено

24 жестких ограничения для ИИ (в Китае) — полный список

Поделиться статьей:

Новое на сайте

22 июн 2024
8 399
9 проверенных формул, чтобы написать продающий оффер

И еще шесть способов, как его усилить.

21 июн 2024
463
Неправильное использование нейросетей может стоить вам работы

Искусственный интеллект может подставить того, кто им пользуется, если человек делает это неправильно и неэффективно.

Смотреть все статьи

У вас есть деловой запрос? Давайте обсудим!

Оставьте свои контакты, мы свяжемся с вами в ближайшее время.

Нажимая на кнопку «Оставить заявку», вы подтверждаете свое согласие на обработку пользовательских данных

Спасибо!

Ваша заявка принята. Мы свяжемся с вами в ближайшее время.