Технологические гиганты создают группу по искусственному интеллекту, сосредоточенную на обеспечении безопасности

Четыре лидера в области искусственного интеллекта (ИИ) из США объявили в среду о создании отраслевой группы, посвященной решению рисков, которые могут представлять передовые версии этой технологии.

Anthropic, Google, Microsoft и OpenAI, создатель ChatGPT, заявили, что новосозданная группа Frontier Model Forum будет опираться на опыт своих участников для минимизации рисков, связанных с ИИ, и поддержки отраслевых стандартов.

Компании обязались делиться передовым опытом друг с другом, законодателями и исследователями.

«Frontier» модели относятся к зарождающимся платформам машинного обучения большого масштаба, которые придают ИИ новый уровень сложности и также обладают опасными возможностями.

«Компании, создающие технологию ИИ, несут ответственность за то, чтобы она была безопасной, надежной и оставалась под контролем человека», — заявил президент Microsoft Брэд Смит в заявлении.

«Эта инициатива является важным шагом, чтобы объединить технологический сектор в продвижении ответственного использования ИИ и решении проблем, чтобы это принесло пользу всему человечеству».

Президент США Джо Байден недавно упомянул о «огромных» рисках и обещаниях ИИ на встрече в Белом доме с лидерами технологической отрасли, которые обязались защищать от всего, начиная от кибератак до мошенничества, по мере роста сектора.

Вместе с представителями Amazon, Anthropic, Google, Inflection, Meta*, Microsoft и OpenAI Байден заявил, что компании обязались «руководить ответственной инновацией», поскольку ИИ все глубже проникает в личную и деловую жизнь.

Перед встречей семь гигантов ИИ обязались соблюдать ряд саморегулирующих мер, которые Белый дом назвал «тремя принципами, которые должны быть фундаментальными для будущего ИИ: безопасность, надежность и доверие».

В своем обязательстве компании согласились разработать «надежные технические механизмы», такие как системы водяных знаков, чтобы пользователи знали, когда контент создан ИИ, а не людьми.

Основные цели Frontier Model Forum включают в себя минимизацию рисков и обеспечение независимой оценки безопасности платформ ИИ, заявили участники компании в своем сообщении.

Форум также будет поддерживать разработку приложений, предназначенных для решения таких проблем, как изменение климата, предотвращение рака и киберугрозы, сказали его создатели.

Другие, стремящиеся к прорывам в области ИИ, были приглашены присоединиться к группе.

«Продвинутые технологии ИИ имеют потенциал глубоко и полезно влиять на общество, и для реализации этого потенциала требуется надзор и управление», — сказала вице-президент OpenAI по глобальным вопросам Анна Маканджу.

«Важно, чтобы компании, занимающиеся ИИ, особенно те, которые работают с самыми мощными моделями, нашли общую позицию и продвигали осмысленные и гибкие практики безопасности».

*Meta признана экстремистcкой организацией в России.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *