Четыре лидера в области искусственного интеллекта (ИИ) из США объявили в среду о создании отраслевой группы, посвященной решению рисков, которые могут представлять передовые версии этой технологии.
Anthropic, Google, Microsoft и OpenAI, создатель ChatGPT, заявили, что новосозданная группа Frontier Model Forum будет опираться на опыт своих участников для минимизации рисков, связанных с ИИ, и поддержки отраслевых стандартов.
Компании обязались делиться передовым опытом друг с другом, законодателями и исследователями.
«Frontier» модели относятся к зарождающимся платформам машинного обучения большого масштаба, которые придают ИИ новый уровень сложности и также обладают опасными возможностями.
«Компании, создающие технологию ИИ, несут ответственность за то, чтобы она была безопасной, надежной и оставалась под контролем человека», — заявил президент Microsoft Брэд Смит в заявлении.
«Эта инициатива является важным шагом, чтобы объединить технологический сектор в продвижении ответственного использования ИИ и решении проблем, чтобы это принесло пользу всему человечеству».
Президент США Джо Байден недавно упомянул о «огромных» рисках и обещаниях ИИ на встрече в Белом доме с лидерами технологической отрасли, которые обязались защищать от всего, начиная от кибератак до мошенничества, по мере роста сектора.
Вместе с представителями Amazon, Anthropic, Google, Inflection, Meta*, Microsoft и OpenAI Байден заявил, что компании обязались «руководить ответственной инновацией», поскольку ИИ все глубже проникает в личную и деловую жизнь.
Перед встречей семь гигантов ИИ обязались соблюдать ряд саморегулирующих мер, которые Белый дом назвал «тремя принципами, которые должны быть фундаментальными для будущего ИИ: безопасность, надежность и доверие».
В своем обязательстве компании согласились разработать «надежные технические механизмы», такие как системы водяных знаков, чтобы пользователи знали, когда контент создан ИИ, а не людьми.
Основные цели Frontier Model Forum включают в себя минимизацию рисков и обеспечение независимой оценки безопасности платформ ИИ, заявили участники компании в своем сообщении.
Форум также будет поддерживать разработку приложений, предназначенных для решения таких проблем, как изменение климата, предотвращение рака и киберугрозы, сказали его создатели.
Другие, стремящиеся к прорывам в области ИИ, были приглашены присоединиться к группе.
«Продвинутые технологии ИИ имеют потенциал глубоко и полезно влиять на общество, и для реализации этого потенциала требуется надзор и управление», — сказала вице-президент OpenAI по глобальным вопросам Анна Маканджу.
«Важно, чтобы компании, занимающиеся ИИ, особенно те, которые работают с самыми мощными моделями, нашли общую позицию и продвигали осмысленные и гибкие практики безопасности».
*Meta признана экстремистcкой организацией в России.