Мошенничество с дипфейками которого долго опасались, наконец пришло в социальные сети.
Поддельные видео знаменитостей, рекламирующих фальшивые услуги, начали набирать обороты на крупных социальных платформах, таких как Facebook*, TikTok и YouTube.
На прошлой неделе NBC News просмотрел более 50 видео, опубликованных на этих сайтах, в которых использовались подделанные компьютером изображения и аудиозаписи хорошо известных людей, все из которых, по-видимому, были созданы для того, чтобы обмануть зрителей и выманить у них деньги.
Почти все они были сосредоточены на Илоне Маске, с манипулированными видео нескольких новостных и телеведущих — включая ведущую CBS News Гейл Кинг, бывшего ведущего Fox News Такера Карлсона и ведущего HBO Билла Махера — ложно утверждая, что Маск изобрел технологически продвинутую инвестиционную платформу.
В большинстве видео использовался такой же поддельный Маск, который призывал зрителей инвестировать свои деньги в несуществующую платформу. Маск, владелец X, ранее известный как Twitter, в прошлом продвигал некоторые криптовалюты, что привело к его большой популярности среди мошенников, которые используют его образ в своих целях. Нет никаких доказательств того, что Маск имел отношение к этим видео.
Дипфейки циркулируют в интернете уже несколько лет, один из первых стал вирусным в 2018 году, когда актер и режиссер Джордан Пил совместно с BuzzFeed News сделал вирусный видеоролик общественной службы, в котором Пил имитировал бывшего президента Барака Обаму. Тогда для этого потребовалась работа с двумя компьютерными программами, и на обработку ушло 56 часов.
Эксперты предупреждают, что такие видео больше не являются самой передовой версией таких афер. И они предупредили, что мошенники используют программы дипфейка в реальном времени, чтобы имитировать знаменитостей в видеозвонках потенциальным жертвам.
Нет полной ясности о том, как именно мошенничества с криптовалютой, о которых говорится в видео, должны работать, или даже о том, что их опубликовал создатель дипфейков. В некоторых видео есть ссылки на неработающие веб-сайты. Одна вела на сайт, изобилующий опечатками, который никак не упоминает Маска, но приглашает посетителей присоединиться к клубу инвесторов криптовалют.
В TikTok один из пользователей, похоже, репостнул одно из поддельных интервью и, следуя культуре ремиксов чужих видео на платформе, наложил сверху свой собственный фейковый адрес электронной почты Илона Маска. Представитель TikTok сослался на политику, согласно которой убедительное синтетическое видео должно быть обозначено как таковое, и заявил, что компания удалила видео, о которых спросил NBC News.
Контактировавший с NBC News владелец этого адреса электронной почты утверждал в Google Chat, что он и есть сам Маск. Следуя распространенной тактике мошенников, он заявил, что если ему отправят криптовалюту, то позже он вернет вдвое больше. Когда его попросили предоставить доказательства своей личности, мошенник прислал фото визитной карточки Маска.
Многие видео имели десятки тысяч просмотров. Большинство были на Facebook*, где некоторые были удалены после запроса NBC News. Другие остались в сети, но теперь их проверяют на соответствие действительности.
Представитель Facebook* заявил, что компания отслеживает тенденции в контенте, сгенерированном ИИ, и что обман пользователей ради денег противоречит политике компании.
Представитель YouTube заявил, что видео, о которых спросил NBC News, не нарушали политику компании. Видео были удалены.
Дипфейки — видео, которые используют искусственный интеллект для создания правдоподобных, но поддельных образов реальных людей — стали значительно более распространенными в интернете за последние месяцы. Некоторые легкодоступные веб-сайты специализируются на дипфейк порнографии знаменитостей, часто без согласия изображаемых людей. Так, в мае Дональд Трамп-младший опубликовал в Твиттере видеоролик, сделанный фанатами, в котором лицо губернатора Флориды Рона ДеСантиса было наложено на тело Майкла Скотта, персонажа Стива Каррелла из сериала «Офис».
Неконтролируемый рост дипфейков заставил некоторых экспертов предупредить, что первые «дипфейковые выборы» состоятся в следующем году, когда значительное число избирателей увидят в интернете видео с политической дезинформацией и не смогут с уверенностью сказать, настоящие они или нет.
Технология стала гораздо более доступной для обычных пользователей. Приложения, способные создавать умеренно убедительные дипфейки, часто в режиме реального времени, доступны любому, у кого есть компьютер или смартфон, — сказал Суббарао Камбхампати, профессор информатики Университета штата Аризона, который изучал технологию дипфейков.
Поскольку для успешного имитирования реальных людей они должны обучаться на настоящих людях, создавать дипфейки кого-то уже знаменитого может быть особенно просто, поскольку интернет уже полон видео и аудиозаписей этих людей.
«По сути, они работали над дипфейком Обамы около пары месяцев, — сказал Камбхампати. — Теперь мы можем использовать публичные инструменты, с помощью которых можно сделать приличную работу с гораздо меньшими ресурсами, поэтому это стало намного более осуществимым».
Видео также намекают на все более прибыльный мир интернет-мошенничества. Киберпреступность постоянно росла в последние годы и взорвалась во время пандемии. В прошлом году жертвы сообщили ФБР о рекордной сумме в 10,2 миллиарда долларов, потерянных из-за мошенничества и других онлайн-преступлений, по сравнению с 6,9 миллиардами долларов годом ранее.
Эми Нофцигер, руководитель службы поддержки жертв мошенничества в сети — AARP Fraud Watch Network, сказала, что мошенники научились использовать дипфейки, чтобы сделать устоявшиеся аферы более убедительными.
Мошенники давно выдавали себя в социальных сетях за знаменитостей, настолько, что некоторые из крупнейших звезд кантри записали видеообращение для Facebook*, предупреждая людей не попадаться на фейковые аккаунты. Эта тенденция не только сохраняется, но в AARP считают, что многие мошенники также используют дипфейки в коротких видеозаписях и видеозвонках жертвам, используя голос или лицо имитируемой знаменитости.
«У нас уже давно были аферы с выдачей себя за знаменитостей, но что может сделать ИИ — это действительно ускорить уровень изощренности и помочь преступникам очень быстро менять тактику, — сказала Нофцигер. — Так что если жертва говорит: «Я не думаю, что это действительно вы; мне нужно, чтобы вы прочитали мне сегодняшние заголовки новостей», или что-то в этом роде, чтобы доказать достоверность, мошенники могут быстро адаптироваться со своей технологией».
В последние месяцы члены AARP становились жертвами поддельных версий Тома Брэди, Алиши Киз, Кевина Костнера, Брендона Фрейзера, Кэрри Андервуд, Андреа Бочелли и участников корейской поп-группы BTS, сказала она.
Дэвид Маймон, директор Исследовательской группы кибербезопасности на основе фактических данных Университета штата Джорджия, сказал, что он и его исследователи видели онлайн-руководства по созданию дипфейков в реальном времени.
В руководствах будущим мошенникам советуют использовать два смартфона: один направлен на их собственные лица, пока они запускают приложения для дипфейков в реальном времени, а другой, на расстоянии нескольких дюймов, для видеочата с жертвами.
Нофцигер сказала, что, хотя большинству людей, вероятно, кажется маловероятным, что знаменитость захочет завязать отношения с ними в интернете, жертвам может быть трудно полностью осознать происходящее.
«Я понимаю, что для того, кто не находится в данный момент в роли жертвы, это кажется самой безумной вещью, о которой я когда-либо слышал, — сказала Нофцигер. — Но когда вы становитесь жертвой и находитесь в данный момент, и ваш кумир разговаривает с вами и хочет быть частью вашей жизни, все ваше когнитивное мышление улетучивается».
*Деятельность Meta (Facebook и Instagram) запрещена в России как экстремистская.