OpenAI поддерживает идею введения лицензий для продвинутых систем искусственного интеллекта

Внутренний документ OpenAI показывает, что компания поддерживает идею требования государственных лицензий от всех, кто хочет разрабатывать продвинутые системы искусственного интеллекта. В документе также указывается, что компания готова раскрыть данные, которые она использует для обучения генераторов изображений.

Создатель ChatGPT и DALL-E изложил ряд обязательств в области политики искусственного интеллекта во внутреннем документе после встречи 4 мая между представителями Белого дома и руководителями технологических компаний, включая главного исполнительного директора OpenAI Сэма Альтмана. «Мы обязуемся работать с правительством США и законодателями по всему миру, чтобы поддержать разработку требований к лицензированию для будущих поколений наиболее способных базовых моделей», — говорится в документе компании из Сан-Франциско.

Идея системы государственного лицензирования, совместно разработанной такими гигантами искусственного интеллекта, как OpenAI, подготавливает почву для потенциального столкновения с малыми предприятиями и разработчиками открытого исходного кода, которые могут видеть в этом попытку усложнить другим войти в эту сферу. Это не первый раз, когда OpenAI высказывает такую идею: во время слушаний в Сенате США в мае Альтман поддержал создание агентства, которое, по его словам, могло бы выдавать лицензии на продукты искусственного интеллекта и отбирать их, если кто-то нарушает установленные правила.

Документ о политике появился в то время, когда ожидается, что корпорации Microsoft Corp., Google Inc. и OpenAI обязуются публично обеспечивать разработку технологии, откликаясь на призыв Белого дома. По словам знакомых с планами людей, компании обещают ответственную разработку и внедрение искусственного интеллекта.

OpenAI предупредила, что идеи, изложенные во внутреннем документе о политике, будут отличаться от тех, которые вскоре будут объявлены Белым домом, наряду с технологическими компаниями. Вице-президент по глобальным вопросам компании Анна Маканджу заявила в интервью, что компания не «настаивает» на лицензировании, но считает, что такое разрешение является «реалистичным» способом для правительств отслеживать появление новых систем.

«Важно, чтобы правительства знали, если появятся мощные системы, которые могут иметь потенциально вредные последствия», — сказала она, и «есть очень мало способов, которые могут гарантировать, что правительства знают о таких системах, если кто-то не готов сообщить о них так, как мы делаем».

Маканджу сказала, что OpenAI поддерживает режимы лицензирования только для моделей искусственного интеллекта, более мощных, чем текущая модель GPT-4 OpenAI, и хочет обеспечить свободу малым предприятиям от излишней регулятивной нагрузки. «Мы не хотим подавлять экосистему», — сказала она.

OpenAI также указала во внутреннем документе о политике, что она готова быть более открытой в отношении данных, которые она использует для обучения генераторов изображений, таких как DALL-E, и заявила о своем намерении «внедрить подход источника данных» к концу года. Вопрос о происхождении данных — практика, используемая для обеспечения прозрачности разработчиков и их работы — был поднят законодателями как критический для предотвращения распространения дезинформации и предвзятости в инструментах искусственного интеллекта.

Заявления, изложенные в меморандуме OpenAI, тесно соответствуют некоторым предложениям политики Microsoft, объявленным в мае. OpenAI отметила, что, несмотря на получение инвестиции в 10 миллиардов долларов от Microsoft, она остается независимой компанией.

Фирма также раскрыла в документе, что проводит исследование по водяным знакам — методу отслеживания подлинности и авторских прав на созданные искусственным интеллектом изображения, а также обнаружению и раскрытию контента, созданного искусственным интеллектом. Она планирует опубликовать результаты.

Компания также заявила в документе, что открыта для внешней атаки «красной команды», то есть позволения людям проверять уязвимости ее системы во многих аспектах, включая оскорбительный контент, риск манипуляции и дезинформации, предвзятость. В меморандуме компания заявила о поддержке создания центра обмена информацией для сотрудничества в области кибербезопасности.

В меморандуме OpenAI признает потенциальные риски, которые системы искусственного интеллекта представляют для рынка труда и неравенства. Компания заявила, что будет проводить исследования и давать рекомендации правительству для защиты экономики от потенциальных «нарушений».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *