Несколько популярных продуктов искусственного интеллекта отмечены Common Sense Media как небезопасные для детей

Независимый обзор популярных инструментов искусственного интеллекта показал, что некоторые из них, включая My AI от Snapchat, DALLE и Stable Diffusion, могут быть небезопасны для детей. Новые обзоры были подготовлены компанией Common Sense Media, некоммерческой группой по защите интересов семьи, которая наиболее известна тем, что предоставляет медиарейтинги для родителей, желающих оценить приложения, игры, подкасты, телепередачи, фильмы и книги, которые потребляют их дети. В начале этого года компания заявила, что вскоре добавит в свои ресурсы для семей рейтинги продуктов искусственного интеллекта. Сегодня эти рейтинги стали доступны, предлагая так называемые «этикетки безопасности» для продуктов искусственного интеллекта, таких как чат-боты, генераторы изображений и т.д.

В июле компания впервые объявила о намерении создать систему рейтингов для оценки продуктов ИИ по ряду параметров, включая использование в технологии ответственных методов ИИ, а также ее пригодность для детей. Поводом для этого послужил опрос родителей с целью выяснения их заинтересованности в подобном сервисе. 82% родителей заявили, что хотели бы получить помощь в оценке того, насколько новые продукты искусственного интеллекта, такие как ChatGPT, безопасны для их детей. И только 40% сказали, что знают какие-либо надежные ресурсы, которые помогли бы им в этом.

Это привело к тому, что сегодня Common Sense Media представила первый рейтинг продуктов искусственного интеллекта. Продукты, которые оцениваются организацией, оцениваются по нескольким принципам ИИ, включая доверие, безопасность детей, конфиденциальность, прозрачность, подотчетность, обучение, справедливость, социальные связи и пользу для человека и общества.

Первоначально организация проанализировала 10 популярных приложений по 5-балльной шкале, включая приложения, используемые для обучения, ИИ чат-боты, такие как Bard и ChatGPT, а также продукты с генеративным искусственным интеллектом, такие как My AI от Snapchat, DALL-E и другие. Неудивительно, что последняя категория оказалась в наихудшем положении.

«ИИ не всегда корректен и не нейтрален по отношению к ценностям», — отметила Трейси Пиццо-Фрей, старший советник по ИИ в Common Sense Media, подводя итоги рейтинга. «Все генеративные ИИ, в силу того, что модели обучаются на огромном количестве данных из Интернета, несут в себе широкий спектр культурных, расовых, социально-экономических, исторических и гендерных предубеждений — и именно это мы обнаружили в наших оценках», — сказала она. «Мы надеемся, что наши оценки подтолкнут разработчиков к созданию защитных систем, ограничивающих распространение дезинформации, и внесут свой вклад в защиту будущих поколений от непредвиденных последствий».

Генеративному ИИ My AI от Snapchat Common Sense Media присвоила 2 звезды, отметив, что некоторые ответы усиливают несправедливые предубеждения, связанные с эйджизмом, сексизмом и культурными стереотипами. Кроме того, в некоторых случаях он предлагает неуместные ответы, а также допускает неточности. Кроме того, в нем хранятся персональные данные пользователей, что, по мнению организации, вызывает опасения в отношении конфиденциальности.

Компания Snap отреагировала на плохую оценку, отметив, что My AI является дополнительным инструментом, и что Snapchat ясно дает понять, что это чат-бот, и предупреждает пользователей о его ограничениях.

«По умолчанию My AI отображает эмодзи робота. Прежде чем кто-то сможет взаимодействовать с My AI, мы показываем сообщение в приложении, чтобы пояснить, что это чат-бот, и рассказать о его ограничениях», — заявила представитель Snap Мэгги Чернефф. «My AI также интегрирован в наш Семейный центр, поэтому родители могут видеть, общаются ли с ним подростки и когда. Мы ценим отзывы в обзорах, поскольку продолжаем совершенствовать наш продукт», — добавила она.

Другие генеративные модели ИИ, такие как DALL-E и Stable Diffusion, имели схожие риски, включая тенденцию к объективации и сексуализации женщин и девочек, усиление гендерных стереотипов и т.д.

Как и любой новый носитель информации в Интернете, эти генеративные модели ИИ также используются для создания порнографических материалов. Такие сайты, как Hugging Face и Civitai, стали популярны не только как ресурсы для поиска новых моделей изображений, но и для облегчения поиска различных моделей, которые можно комбинировать друг с другом для создания порнографических материалов по чьему-либо подобию (например, знаменитости). Этот вопрос встал на этой неделе, когда 404Media указала на возможности Civitai, и после этого на таких сайтах, как Hacker News, продолжились дебаты о том, кто несет ответственность — агрегаторы сообществ или сами модели ИИ.

В середине рейтинга Common Sense оказались такие ИИ чат-боты, как Bard от Google (который только вчера официально открылся для подростков), ChatGPT и Toddle AI. Организация предупредила, что и эти боты могут быть предвзятыми, особенно в отношении пользователей с «различным происхождением и диалектами». Кроме того, они могут выдавать неточную информацию — или галлюцинации ИИ — и укреплять стереотипы. Common Sense предупреждает, что ложная информация, которую выдает ИИ, может формировать мировоззрение пользователей и еще больше затруднять отделение фактов от вымысла.

OpenAI отреагировал на новые рейтинги, отметив возрастные требования предъявляемые к пользователям.

«Мы очень заботимся о безопасности и конфиденциальности всех, кто пользуется нашими инструментами, в том числе и молодых людей, поэтому мы встроили в ChatGPT надежные ограждения и меры безопасности, а также позволили пользователям выбирать, когда их разговоры будут использоваться для улучшения наших моделей», — заявила представитель OpenAI Кайла Вуд. «Мы требуем, чтобы пользователи в возрасте 13-17 лет имели разрешение родителей на использование наших инструментов, и не разрешаем детям младше 13 лет пользоваться нашими услугами», — отметила она.

Единственными продуктами ИИ, получившими хорошие отзывы, стали ИИ-репетитор по чтению и служба доставки книг Ello, Khanmingo от Khan Academy и ИИ-репетитор Kyron Learning — все три продукта ИИ предназначены для образовательных целей. Они менее известны, чем другие. Тем не менее, поскольку эти компании разрабатывали их с учетом потребностей детей, они, как правило, использовали ответственные методы работы с ИИ и уделяли особое внимание справедливости, разностороннему представлению и удобству для детей. Кроме того, они были более прозрачны в отношении политики конфиденциальности данных.

Common Sense Media заявляет, что будет продолжать публиковать рейтинги и обзоры новых продуктов с искусственным интеллектом на постоянной основе, что, как она надеется, поможет информировать не только родителей и семьи, но и законодателей и регулирующие органы.

«Потребители должны иметь доступ к четкой маркировке продуктов искусственного интеллекта, которые могут поставить под угрозу безопасность и конфиденциальность всех американцев, но особенно детей и подростков», — говорится в заявлении Джеймса П. Стайера, основателя и генерального директора Common Sense Media. «Узнав, что представляет собой продукт, как он работает, каковы его этические риски, ограничения и злоупотребления, законодатели, преподаватели и широкая общественность смогут понять, как выглядит ответственный ИИ. Если правительство не сможет «защитить» детский мир от ИИ, технологические компании воспользуются этой нерегулируемой, свободной атмосферой в ущерб конфиденциальности наших данных, благополучию и демократии в целом», — добавил он.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *