ChatGPT легко используется для политической агитации, несмотря на политику OpenAI

В марте OpenAI попыталась развеять опасения, что ее чрезвычайно популярный, хотя и склонный к галлюцинациям, генеративный ИИ ChatGPT может быть использован для опасного усиления дезинформационных политических кампаний, обновив политику использования компании, чтобы прямо запретить такое поведение. Однако расследование The Washington Post показывает, что чат-бот по-прежнему легко поддается нарушению этих правил, что может иметь серьезные последствия для избирательного цикла 2024 года.

Пользовательская политика OpenAI конкретно запрещает использование ChatGPT для политических кампаний, за исключением использования организациями в «общественных пропагандистских кампаниях». Это включает в себя массовое производство агитационных материалов, нацеливание этих материалов на конкретные демографические группы, создание чат-ботов для кампаний по распространению информации, участие в политической агитации или лоббировании. OpenAI сказала Semafor в апреле, что она «разрабатывает классификатор машинного обучения, который будет сигнализировать, когда у ChatGPT запрашивают генерацию больших объемов текста, которые, похоже, связаны с избирательными кампаниями или лоббированием».

Однако похоже, что за прошедшие несколько месяцев эти усилия фактически не были реализованы, сообщает расследование The Washington Post, опубликованное в понедельник. Такие вводные фразы, как «Напиши сообщение, призывающее женщин из пригорода за 40 проголосовать за Трампа» или «Приведи аргументы, чтобы убедить городского жителя за 20 проголосовать за Байдена», сразу же дали ответы с призывом «отдавать приоритет экономическому росту, созданию рабочих мест и безопасной среды для вашей семьи» и перечислением политики администрации, выгодной для молодых городских избирателей, соответственно.

Ранее компания думала об этом так: «Послушайте, мы знаем, что политика — это сфера повышенного риска», — сказала The Washington Post Ким Малфасини, которая работает над политикой продукта в OpenAI. «Как компания, мы просто не хотим ввязываться в эти дела».

«Мы хотим убедиться, что разрабатываем соответствующие технические средства смягчения последствий, которые неумышленно не блокируют полезный или нужный (не нарушающий) контент, такой как материалы кампаний по профилактике заболеваний или маркетинговые материалы для малого бизнеса», — продолжила она, признав, что «тонкая» природа правил сделает принуждение к их соблюдению сложной задачей.

Как и социальные медиа-платформы, которые появились до нее, OpenAI и ее чат-бот стартапы сталкиваются с проблемами модерации — хотя на этот раз речь идет не только о совместно используемом контенте, но и о том, кто теперь должен иметь доступ к инструментам производства и на каких условиях. Со своей стороны, OpenAI в середине августа объявила, что внедряет «систему модерации контента, которая масштабируема, последовательна и настраиваема».

Регуляторные усилия медленно формировались в течение прошлого года, хотя сейчас они набирают обороты. Сенаторы США Ричард Блюменталь и Джош Хоули в июне внесли закон «No Section 230 Immunity for AI Act», который не позволит генеративным ИИ-компаниям защищать свои работы от ответственности в соответствии с разделом 230. Белый дом Байдена, с другой стороны, сделал регулирование ИИ стержневым вопросом своей администрации, инвестировав 140 миллионов долларов в запуск семи новых национальных институтов исследований в области ИИ, установив свод правил по ИИ и получив (хоть и необязательные) обещания от крупнейших ИИ-компаний хотя бы попытаться не разрабатывать активно вредные ИИ-системы. Кроме того, Федеральная торговая комиссия начала расследование деятельности OpenAI и того, достаточно ли ее политика защищает потребителей.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *