Подделки, созданные искусственным интеллектом, быстро становятся одной из самых серьезных проблем, с которыми мы сталкиваемся в Интернете. Обманчивые изображения, видео и аудио становятся все более распространенными в результате появления и злоупотребления генеративными инструментами искусственного интеллекта.
ИИ-дипфейки появляются почти каждый день, изображая всех — от Тейлор Свифт до Дональда Трампа, и становится все труднее отличить настоящее от ненастоящего. Генераторы видео и изображений, такие как DALL-E, Midjourney и Sora от OpenAI, позволяют людям без каких-либо технических навыков легко создавать дипфейки — достаточно ввести запрос, и система выдает результат.
Эти поддельные изображения могут показаться безобидными. Но они могут быть использованы и для мошенничества, и для кражи личных данных, и для пропаганды, и для манипуляций на выборах.
Вот как не стать жертвой подделок:
Как распознать дипфейки
В первые дни существования дипфейков, эта технология была далека от совершенства и часто оставляла заметные следы манипуляций. Специалисты по проверке достоверности указывали на изображения с очевидными ошибками, например, на руки с шестью пальцами или очки с линзами разной формы.
Но по мере совершенствования искусственного интеллекта проверять их стало гораздо сложнее. По словам Генри Адждера, основателя консалтинговой компании Latent Space Advisory и ведущего эксперта в области генеративного ИИ, некоторые широко распространенные советы — например, искать неестественное моргание людей в поддельных видео — больше не годятся.
Тем не менее, по его словам, есть вещи, на которые стоит обратить внимание.
По словам Адждера, многие поддельные фотографии от ИИ, особенно людей, имеют электронный блеск, «эстетический эффект сглаживания», благодаря которому кожа «выглядит невероятно отполированной».
Однако он предупредил, что творческие подсказки иногда могут устранить этот и многие другие признаки манипуляций ИИ.
Проверьте согласованность теней и освещения. Часто объект съемки находится в четком фокусе и выглядит убедительно реалистичным, но элементы на заднем плане могут быть не такими реалистичными и отшлифованными.
Посмотрите на лица
Подмена лиц — один из самых распространенных методов технологии дипфейк. Эксперты советуют внимательно смотреть на контуры лица. Являются ли контуры лица резкими или размытыми? Соответствует ли тон кожи лица остальным частям головы или тела?
Если вы подозреваете, что видео с говорящим человеком было подделано, посмотрите на его рот.
Совпадают ли движения его губ со звуком?
Адждер советует посмотреть на зубы. Четкие ли они, или размытые и как-то не соответствуют тому, как выглядят в реальной жизни?
Компания Norton, занимающаяся кибербезопасностью, говорит, что алгоритмы могут быть еще недостаточно сложными, чтобы генерировать отдельные зубы, поэтому отсутствие очертаний отдельных зубов может быть одним из признаков.
Подумайте о картине в целом
Иногда контекст имеет значение. Подумайте, насколько правдоподобно то, что вы видите.
Журналистский портал Poynter советует: если вы видите, что общественный деятель делает что-то, что кажется «преувеличенным, нереальным или не соответствующим характеру», это может быть дипфейком.
Например, действительно ли Папа Римский носит роскошную пуховую куртку, как это изображено на нашумевшей поддельной фотографии? Если да, то разве не было бы других фотографий или видео, опубликованных официальными источниками?
Использование искусственного интеллекта для поиска подделок
Другой подход — использование искусственного интеллекта для борьбы с искусственным интеллектом.
Компания Microsoft разработала инструмент аутентификации, который может анализировать фотографии или видео и давать оценку, не были ли они подделаны. FakeCatcher компании Intel использует алгоритмы для анализа пикселей изображения, чтобы определить, настоящее оно или поддельное.
В Интернете есть инструменты, которые обещают вычислить подделку, если вы загрузите файл или вставите ссылку на подозрительный материал. Но некоторые из них, например программа проверки подлинности от Microsoft, доступны только избранным партнерам, а не широкой публике. Это связано с тем, что исследователи не хотят предупреждать злоумышленников и давать им дополнительное преимущество в гонке фейковых разработок.
Открытый доступ к инструментам обнаружения также может создать у людей впечатление, что это «богоподобные технологии, которые могут взять на себя критическое мышление за нас», в то время как вместо этого мы должны знать об их ограничениях, говорит Адждер.
Препятствия на пути поиска подделок
При всем этом искусственный интеллект развивается с бешеной скоростью, и модели ИИ обучаются на данных интернета, чтобы создавать все более качественный контент с меньшим количеством ошибок.
Это означает, что нет никакой гарантии, что эти советы будут актуальны и через год.
Эксперты говорят, что возлагать на обычных людей обязанность стать цифровыми Шерлоками может быть даже опасно, поскольку это может породить у них ложное чувство уверенности, поскольку распознать подделку становится все сложнее даже для опытных глаз.