Ведущие компании по искусственному интеллекту посещают Белый дом, чтобы добровольно обязаться соблюдать меры безопасности

В то время как до законодательства по искусственному интеллекту может пройти еще несколько лет, отрасль движется со сверхскоростью, и многие, включая Белый дом, беспокоятся, что она может выйти из-под контроля. Поэтому администрация Байдена собрала «добровольные обязательства» от 7 крупнейших разработчиков искусственного интеллекта, чтобы преследовать общие цели в области безопасности и прозрачности перед запланированным указом президента.

OpenAI, Anthropic, Google, Inflection, Microsoft, Meta* и Amazon — это компании, принимающие участие в этом необязательном соглашении и отправляющие представителей в Белый дом для встречи с президентом Байденом сегодня.

Чтобы было ясно, здесь не предлагается никаких правил или обязательств. Методы, согласованные здесь, являются исключительно добровольными. Но, хотя ни одно государственное агентство не будет требовать от компании отчетности, если она уклонится от них, это, вероятно, станет достоянием общественности.

Вот список участников встречи в Белом доме:

  • Брэд Смит, президент Microsoft
  • Кент Уокер, президент Google
  • Дарио Амодеи, генеральный директор Anthropic
  • Мустафа Сулейман, генеральный директор Inflection AI
  • Ник Клегг, президент Meta*
  • Грег Брокман, президент OpenAI
  • Адам Селипски, генеральный директор Amazon Web Services

Семь компаний (и, вероятно, другие, которые не получили красную дорожку, но хотели бы присоединиться) обязались соблюдать следующее:

  • Внутренние и внешние проверки безопасности систем искусственного интеллекта перед выпуском, включая атаку «красной команды» экспертами, не связанными с компанией.
  • Обмен информацией между правительством, академическими кругами и «гражданским обществом» о рисках искусственного интеллекта и техниках их снижения (например, предотвращение «взлома»).
  • Инвестиции в кибербезопасность и «средства защиты от внутренних угроз» для защиты конфиденциальных данных модели, таких как веса. Это важно не только для защиты интеллектуальной собственности, но и потому, что преждевременный широкий выпуск может стать возможностью для злоумышленников.
  • Облегчение обнаружения и сообщения об уязвимостях третьими сторонами, например, программа вознаграждения за обнаружение ошибок или анализ экспертов.
  • Разработка надежного водяного знака или другого способа маркировки контента, созданного с использованием искусственного интеллекта.
  • Сообщать о «возможностях, ограничениях и областях адекватного и неадекватного использования» систем искусственного интеллекта.
  • Приоритетное исследование общественных рисков, таких как систематическая предвзятость или проблемы конфиденциальности.
  • Разработка и внедрение искусственного интеллекта «для решения важнейших вызовов общества», таких как предотвращение рака и изменение климата.

Хотя вышеперечисленное является добровольным, легко представить, что угроза указа президента — а он «в настоящее время разрабатывается» — будет стимулом к соблюдению. Например, если некоторые компании не разрешат внешнее тестирование безопасности своих моделей перед выпуском, указ может содержать пункт, направленный на то, чтобы Федеральная торговая комиссия тщательно изучила продукты искусственного интеллекта, заявляющие о надежной безопасности. (Уже действует один указ, требующий от агентств быть бдительными в отношении предвзятости в разработке и использовании искусственного интеллекта.)

Белый дом явно стремится опередить новую волну технологий, после того как его немного застала неподготовленным разрушительная способность социальных медиа. Президент и вице-президент встречались с лидерами отрасли и просили советов по национальной стратегии по искусственному интеллекту, а также выделили значительные средства на новые центры исследований и программы по искусственному интеллекту. Конечно, национальный научный и исследовательский аппарат опережает их, как показывает этот обстоятельный (хотя несколько устаревший) доклад о вызовах и возможностях исследований от DOE и национальных лабораторий.

*Meta признана экстремистcкой организацией в России.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *