Технологии дипфейков постоянно совершенствуются: внешность, мимика, манера двигаться, голос – все это можно подделать так, что собеседник в видеоконференции с трудом догадается, что перед ним не живой человек, с которым он знаком, а созданный нейросетями аватар. И вот свежайший случай из уголовной практики, доказывающий сказанное.
Транснациональную компанию из Гонконга (ее название не разглашается) обманули с помощью дипфейков на 25,6 млн долларов (2,34 млрд рублей). Мошенники сделали цифровые копии топ-менеджеров компании, которые велели ответственному сотруднику финансового отдела перевести деньги куда (не)надо.
Злоумышленники не найдены, отозвать перевод не получилось. Ищут, разбираются, имитируют бурную деятельность.
История обмана на 25,6 млн долларов
Всё произошло во время видеоконференции, среди участников которой лишь один человек был настоящим – доверчивый герой нашего рассказа.
Готовить его к переводу средств начали еще в середине января 2024 года. Тогда ему пришло странное письмо от финансового директора британского подразделения компании, в котором тот сообщал о необходимости проведения тайной транзакции на крупную сумму.
Всё это было весьма необычно, и сотрудник (месяца) даже засомневался – а не пытаются ли его обмануть. Однако в назначенное время ему пришло письмо с приглашением на групповую онлайн-встречу. Адрес отправителя тоже не вызывал сомнений, и финансист отважно кликнул на ссылку. И что же он увидел?
Знакомое улыбающееся лицо финансового директора британского подразделения компании и не менее знакомые лица других сотрудников. У жертвы отлегло от сердца – свои.
Свои объяснили ему, что надо перевести 25,6 млн долларов в пределах Гонконга – на несколько счетов и несколькими транзакциями, чтобы не отслеживался перевод крупной суммы денег. Доверчивый финансист тут же начал бодро стучать по клавиатуре, щедро раскидывая зелененькие. Он в поте лица выполнил 15 транзакций, но ничего так и не заподозрил, поскольку с экрана его подбадривали добрые знакомые лица коллег.
Вдруг видеосвязь оборвалась, что тоже могло бы насторожить, но мошенники не отпустили жертву и продолжили с ним общаться с помощью звонков, электронной почты и мессенджеров. Это тоже успокоило нашего финансиста и, сделав дело, он вернулся к своим рутинным задачам.
Через неделю сотрудник решил поинтересоваться в головном офисе, все ли прошло хорошо? Получены ли деньги? И тут ему, надо полагать, прилетело так, как никому не прилетало со времен скандальной продажи мошенником Эйфелевой башни.
За ту неделю, пока наш финансист гордился своей эффективностью, мошенники выгребли всё со счетов, куда переводились деньги, запутали следы и растворились, как туман на рассвете.
А самое обидное, что наш герой был не единственным, кого мошенники пытались обвести вокруг пальца, но оказался единственным лопухом. Другие два сотрудника соскочили с крючка еще на этапе первого письма с просьбой о тайном переводе крупной суммы денег. Но им все равно не позавидуешь, поскольку их теперь обвиняют в том, что они не известили о мошенниках службу безопасности.
Словом, всем плохо.
Могу ли я создать такой дипфейк
Начнем с более сложного вопроса – откуда мошенники могли взять образцы людей, которых копировали? Ответ, вероятно, вы найдете на страничках в соцсетях, в том числе, на своих. Благодаря этим фото и видео подделать ваш образ не составит труда.
А теперь о важном – технически вы можете сделать более-менее точную копию человека онлайн в режиме реального времени. Однако на пути у вас с разведенными в боевой стойке руками встает Уголовный кодекс, если, создавая дипфейк, вы хотите унизить или обокрасть кого-то. Если таких порицаемых планов у вас нет, то вот оценка гонконгского случая экспертом «Текстерры».
Дарья Капитонова, SMM-маркетолог TexTerra, специалист по нейросетям:
«Каким образом могли быть созданы дипфейки, использованные для введение в заблуждения несчастного финансиста? Могу предложить одну из версий, не претендуя на истину.
Как вариант, это могли сделать с помощью DeepFaceLive. Программу можно скачать на свой компьютер при условии, что железо соответствует требованиям (любая видеокарта, совместимая с DirectX12, современный процессор, 4 ГБ ОЗУ, 32 ГБ + файл подкачки, Windows 10).
После установки программа позволяет осуществлять захват изображения с камеры компьютера и заменять лицо человека на любое из базы. Как утверждают авторы сервиса про хранящиеся там изображения: "Этих лиц не существует. Сходства с реальными людьми случайны. Кроме Киану Ривза. Он существует, и от него захватывает дух!".
Да, разумеется, там не было директоров банка. Как же их добавили? С помощью сервиса DeepFaceLab, который позволяет обучать свои собственные модели лиц.
Это занимает не один час/день и требует определенных навыков, но, как и работа с любыми программами и нейросетями, вполне доступно обычному пользователю. А у энтузиастов DeepFaceLab в дополнение к руководству есть еще и большое комьюнити, у которого можно получить ответы на многие вопросы по тонкостям создания и обучения лиц».
Как распознать дипфейк
Дипфейки, как правило, создаются с небольшим углом обзора (во всяком случае, пока). То есть, если попросить человека, который прячется за цифровой маской, повернуть голову в профиль, то маска эта «слетит» или «поплывет». Но самый верный способ – в той или иной степени знать друг друга и задать вопрос, ответ на который может знать только настоящий человек, образ которого используется. И вообще, если у вас просят денег, то, как показывает практика, всегда выгоднее отказать, даже если перед вами настоящий человек, а не дипфейк.
Читайте также:
Нейросеть Кандинский – как Императорский завод пиарился по-модному