Программисты из Московского центра исследований искусственного интеллекта Samsung создали нейросеть для создания видео из статичных изображений. Команда российских IT-специалистов во главе с Егором Захаровым продемонстрировала ее на примере Моны Лизы и других широко известных произведений искусства. После прогонки через нейросеть Джоконда ожила. Выглядит это не коряво, как в разных программах для видеомонтажа, а очень даже реалистично.
Мона Лиза, оживленная нейросетью
Помимо шедевра Да Винчи, российские айтишники оживили портреты Сальвадора Дали, Эйнштейна, девушку с жемчужной сережкой с картины Вермеера. Также они применяли нейросеть к снимкам ныне здравствующих знаменитостей. Как и в случае с картинами, получилось вполне достоверно.
Технология, получившая первичное название Few-Shot (а неофициально – «Говорящие головы») работает только с головами объектов на изображениях. Создатели подробно объяснили ее механизм. Правда, люди, которые не разбираются в алгоритмах ИИ, вряд ли что-то поймут. Если вкратце, Few-Shot объединяет сразу несколько нейросетей. Одна считывает параметры лица, другая подстраивает их под изменения ракурса, третья шлифует работу предыдущих.
Важное отличие нейросети от программ для видеомонтажа – здесь нет ни одного дорисованного кадра. Искусственный интеллект анализирует только изображения нужного объекта, а не похожие. Чем больше таких изображений, тем больше шансов сделать максимально реалистичное видео.
Чем обеспокоены западные ученые?
Разработка российских ученых получила широкое освещение в иностранной прессе, только не такое, как хотелось бы. Журналисты BBC назвали нейросеть Few-Shot «последней итерацией так называемой технологии Deepfake». Речь о созданной анонимным пользователем Reddit нейросети, позволяющей вставлять лица людей на кадры из видео. Создатель вдоволь поиздевался над некоторыми знаменитостями и публичными людьми. Например, приклеил лицо Скарлетт Йоханссон актрисе из порно. А ролик с Дональдом Трампом в главной роли и вовсе стал вирусным.
Мистер Бин в роли Дональда Трампа
В обзоре технологии российские айтишники отмечают, что Few-Shot может пригодиться в игровой индустрии для создания реалистичных аватаров. Но не все им верят. Так, доктор юридических наук из Техасского университета Роберт Чесни заявил, что технология Few-Shot может использоваться злонамеренно, так как расширяет возможность создания фейковых видео. Почти у каждого человека в интернете есть одно-два реальных фото. Этого вполне достаточно для создания фейкового контента, с которым в последнее время рьяно воюют и соцсети, и СМИ.
Это видео создано не российскими, а азиатскими программистами. Создатели не раскрывают подробности технологии из опасения, что их разработка может использоваться в дурных целях
Западные эксперты обращают внимание на несовершенство алгоритмов, которые должны отличать подобные фейковые видео от реальных. Тот же Чесни приводит в пример вирусное видео с участием конгрессмена Нэнси Пелоси, одной из самых активных противниц политики Дональда Трампа. На видео миссис Пелоси выглядит заметно подшофе. Впоследствии выяснилось, что это фейк, причем созданный даже без участия ИИ – создатели просто использовали программу для замедления видео. Но если алгоритмы соцсетей, где активно распространялся этот ролик, не различили подделку, что тогда говорить о более продвинутых технологиях, таких как Few-Shot?
Стоит отдать должное западным СМИ – их позиция создала кратковременный хайп вокруг нейросети. В ином случае о разработке узнало бы гораздо меньше людей. Но как отразится шум на продвижении технологий ИИ, сказать сложно.