Согласно новому докладу, опубликованному Центром по противодействию цифровой ненависти, генеративные платформы и инструменты искусственного интеллекта (ИИ) могут быть опасны для пользователей, которые задают вопросы о вредных практиках расстройств пищевого поведения.
Британская некоммерческая организация протестировала шесть популярных генеративных ИИ-чатботов и генераторов изображений, включая My AI от Snapchat, Bard от Google и ChatGPT и Dall-E от OpenAI.
Исследователи центра задали инструментам в общей сложности 180 подсказок и обнаружили, что они генерировали опасный контент в ответ на 41% этих запросов. Подсказки включали просьбы о советах по использованию сигарет для похудения, о том, как добиться внешности «героинового шика» и как «поддерживать режим голодания». В 94% опасных текстовых ответов инструменты предупреждали пользователя, что их советы могут быть нездоровыми или потенциально небезопасными, и советовали обратиться к специалисту, но тем не менее делились этим контентом.
Из 60 ответов на подсказки, данных ИИ-текстовым генераторам Bard, ChatGPT и MyAI, почти четверть содержала вредный контент. MyAI первоначально отказалась давать какие-либо советы. Однако исследователи смогли «взломать» инструменты, используя слова или фразы, позволяющие обойти функции безопасности. Более двух третей ответов на взломанные версии подсказок содержали вредный контент, включая советы по использованию солитера для похудения.
«Непроверенные, небезопасные модели генеративного ИИ были выпущены в мир с неизбежным следствием, что они причиняют вред», — написал Имран Ахмед, генеральный директор Центра по противодействию цифровой ненависти. «Мы обнаружили, что самые популярные сайты с генеративным ИИ поощряют и усугубляют расстройства пищевого поведения среди молодых пользователей, некоторые из которых могут быть очень уязвимы».
Исследователи центра обнаружили, что участники форума по расстройствам пищевого поведения с более чем 500 000 пользователей используют инструменты ИИ для создания экстремальных диетических планов и изображений, прославляющих нездоровые, нереалистичные стандарты тела.
В то время как некоторые платформы запрещают использовать их инструменты ИИ для генерации контента, связанного с расстройствами пищевого поведения, политика других компаний более размыта. «Неоднозначность в отношении политики платформ ИИ иллюстрирует опасности и риски, которые ИИ-платформы представляют, если их не регулировать должным образом», — говорится в докладе.
Когда колумнист The Washington Post Джеффри А. Фаулер попытался воспроизвести исследование центра, задав те же подсказки генеративным ИИ-инструментам, он также получил тревожные ответы.
Среди его запросов были вопросы о том, какие препараты могут вызывать рвоту, как создать низкокалорийный диетический план и просьбы предоставить изображения «thinspo».
«Это отвратительно и должно разозлить любого родителя, врача или друга человека с расстройством пищевого поведения», — написал Фаулер. «Есть причина, по которой это произошло: ИИ усвоил некоторые крайне нездоровые идеи о телесном образе и питании, просматривая интернет. И некоторые из лучше всего финансируемых технологических компаний в мире не останавливают его от повторения этих идей».
Фаулер написал, что когда он задал вопросы компаниям, стоящим за этими инструментами, ни одна из них не пообещала прекратить давать их ИИ советы по еде и похудению, и пока они не могут гарантировать, что это безопасно.
Генератор изображений Midjourney так и не ответил на вопросы Фаулера, написал он. Stability AI, которая стоит за генератором изображений Stable Diffusion, заявила, что добавила подсказки о расстройствах пищевого поведения в свои фильтры. Как сообщается, Google сказал Фаулеру, что удалит ответ Bard с советом о «thinspo», но через несколько дней он снова смог его сгенерировать.
Психологи, с которыми говорил Фаулер, сказали, что предупреждения о безопасности, которые дают чат-боты в своих советах, часто игнорируются пользователями.
Ханна Блох-Веба, профессор юридического факультета Техасского университета А&М, которая изучает модерацию контента, сказала Фаулеру, что у компаний, занимающихся генеративным ИИ, мало экономических стимулов для решения этой проблемы.
«Опыт социальных сетей научил нас, что неспособность модерировать этот контент не приводит ни к каким значимым последствиям для компаний, ни к тому, что они получают прибыль от этого контента», — сказала Блох-Веба.