Согласно новому отчету, самые популярные генераторы изображений на основе текста — Midjourney, DALL-E 2 и Stable Diffusion — в среднем принимали более 85% подсказок, которые стремились сгенерировать фальшивые политические новости.
AI-стартап под названием Logically, который работает с правительствами и компаниями для выявления и управления онлайн-дезинформацией, протестировал три генератора изображений и поделился своими выводами в отчете. Стартап протестировал более 40 политических нарративов в США, Великобритании и Индии и обнаружил широкое принятие этих вводных данных дезинформации.
Logically обнаружил, что «отсутствие модерации в отношении подсказок позволяет потенциально злонамеренные намерения», и предупредил, что эти «недостатки защиты» могут привести к «значительным угрозам на предстоящих выборах из-за их способности усилить тактики и стратегии дезинформации».
Избиратели США вернутся на избирательные участки в 2024 году на президентских выборах. В следующем году избиратели по всему миру примут участие в ключевых выборах в Египте, Индии, Австралии и Южной Корее.
Logically протестировал подсказки, связанные с заявлениями об «украденных выборах» — крупная проблема на президентских выборах США 2020 года — и сгенерировал изображения людей, «набивающих урны для голосования». DALL-E 2, Stable Diffusion и Midjourney все приняли подсказки; у Midjourney были «наиболее правдоподобные доказательства».
В целом, Midjourney произвел изображения самого высокого качества, но применял больше всех политик модерации контента, согласно отчету. У DALL-E 2 и Stable Diffusion были сходные ограниченные уровни модерации контента, они генерировали изображения более низкого качества.
В целом, их изображения все еще не соответствовали реальным фотографиям. Однако они по-прежнему могут быть эффективными для кампаний по дезинформации, таких как предполагаемый взрыв в Пентагоне в мае, который ненадолго обрушил фондовый рынок.
Logically призвал к дальнейшей модерации контента, а также к «более активному подходу» со стороны платформ социальных сетей для борьбы с использованием генеративного ИИ на основе изображений в дезинформации.
ИИ продолжает «большую ложь»
После проигрыша на выборах 2020 года Джо Байдену, бывший президент Дональд Трамп и его союзники постоянно продвигали «большую ложь»: выборы были сфальсифицированы, с заявлениями о мошенничестве избирателей и подбрасывании бюллетеней.
В своем тестировании политических нарративов с использованием Midjourney, DALL-E 2 и Stable Diffusion Logically обнаружил, что 91% были приняты на всех платформах при первой попытке подсказки. Однако Midjourney и DALL-E 2 отклонили попытки сгенерировать изображения Джорджа Сороса, хедж-фондового магната, который часто становится мишенью для правых атак, а также бывшего спикера Палаты представителей от Демократической партии Нэнси Пелоси и объявления о COVID. Stable Diffusion приняла 100% подсказок.
В прошлом месяце кандидат в президенты США и губернатор Флориды Рон Десантис попытался ослабить президентскую кампанию Трампа 2024 года, опубликовав рекламный ролик с использованием сгенерированного ИИ изображения Дональда Трампа, обнимающего доктора Энтони Фаучи, бывшего директора Национального института аллергии и инфекционных заболеваний НИЗ, который стал фигурой неприязни для многих правых.
Британские опасения по поводу иммиграции усилены ИИ?
Хотя в Великобритании на 2024 год не запланированы какие-либо выборы, правящая Консервативная партия должна до 28 января 2025 года назначить голосование в соответствии с конституцией.
В то время как все признаки указывают на то, что тори разгромлены, в некоторых уголках электората разгорается борьба за иммиграцию. Именно этот вопрос в основном является причиной, по которой избиратели в 2016 году шокировали мир референдумом о Брексите.
Печально известный плакат «Переломный момент», представленный сторонником Брексита Найджелом Фаражем, стремился сыграть на антииммиграционной риторике. Хотя он был в основном осужден как «подлый» даже его собственными сторонниками, на изображении были беженцы, пересекающие границу Хорватии и Словении в лагерь беженцев, а не те, которые находились на границе Кале, Франция, пытаясь попасть в Британию.
Logically смог сгенерировать изображения сотен людей, прибывающих в Дувр на небольших лодках, растущая проблема, которую правительство пыталось остановить с помощью своего Законопроекта об незаконной миграции.
Воссоздание взрыва в Пентагоне
Еще одна подсказка попыталась воссоздать вирусное изображение предполагаемого взрыва в Пентагоне — но на этот раз с Вестминстерским аббатством в качестве цели. Изображение знаменитого собора в огне, через дорогу от здания Парламента, было сгенерировано с использованием DALL-E 2 и Stable Diffusion. Midjourney отклонил подсказку.
Хотя DALL-E 2 и Stable Diffusion смогли сгенерировать изображения сходного качества с предполагаемым взрывом в Пентагоне, оба сгенерировали искаженные версии, по которым внимательный наблюдатель мог бы понять, что они не настоящие.