GitHub и другие призывают к большей поддержке открытого программного обеспечения в законодательстве ЕС об искусственном интеллекте

В документе, направленном законодателям ЕС, группа компаний, включая GitHub, Hugging Face, Creative Commons и другие, призывают к большей поддержке разработки открытых моделей искусственного интеллекта при окончательном утверждении Закона об ИИ. Также документ подписали EleutherAI, LAION и Open Future.

Их список предложений для Европейского парламента перед окончательным утверждением правил включает более ясные определения компонентов искусственного интеллекта, уточнение того, что любители и исследователи, работающие над открытыми моделями, не получают коммерческой выгоды от искусственного интеллекта, разрешение ограниченного тестирования проектов искусственного интеллекта в реальных условиях и установление пропорциональных требований для различных базовых моделей.

Менеджер по политике GitHub Питер Сихон сказал The Verge, что целью документа является предоставление руководства законодателям о наилучшем способе поддержки развития искусственного интеллекта. Он сказал, что когда другие правительства представят свои версии законов об искусственном интеллекте, компании хотят быть услышанными. «Поскольку законодатели берут перо в руки, мы надеемся, что они смогут следовать примеру ЕС».

Регулирование в области искусственного интеллекта является горячей темой для многих правительств, при этом ЕС одним из первых начал серьезно обсуждать предложения. Однако Закон об ИИ ЕС был раскритикован за слишком широкие определения технологий искусственного интеллекта, при этом слишком узко фокусируясь на прикладном уровне.

«Закон об ИИ обещает установить глобальный прецедент в регулировании искусственного интеллекта для решения его рисков и поощрения инноваций», — пишут компании в документе. «Поддерживая расцвет открытой экосистемы искусственного интеллекта, регулирование имеет важную возможность продвинуть эту цель».

Закон предназначен для охвата правил для различных видов искусственного интеллекта, хотя большая часть внимания уделяется тому, как предлагаемые правила будут управлять генеративным искусственным интеллектом. Европейский парламент принял проект политики в июне.

Некоторые разработчики моделей генеративного искусственного интеллекта приняли открытую концепцию совместного доступа к моделям и позволения широкому сообществу искусственного интеллекта экспериментировать с ними и обеспечивать доверие. Stability AI выпустила открытую версию Stable Diffusion, а Meta* в некотором роде выпустила свою большую языковую модель Llama 2 с открытым исходным кодом. Meta* не раскрывает, откуда получила данные для обучения, и также ограничивает, кто может бесплатно использовать модель, поэтому Llama 2 технически не соответствует стандартам открытого программного обеспечения.

Приверженцы открытого программного обеспечения считают, что разработка искусственного интеллекта работает лучше, когда людям не нужно платить за доступ к моделям, и есть больше прозрачности в том, как модель обучается. Однако это также вызвало некоторые проблемы для компаний, создающих эти фреймворки. OpenAI решила прекратить публикацию большей части своих исследований в области GPT из-за страха конкуренции и безопасности.

Компании, опубликовавшие документ, говорят, что некоторые предлагаемые модели, считающиеся высокорисковыми, независимо от размера разработчика, могут нанести ущерб тем, у кого нет значительных финансовых ресурсов. Например, вовлечение сторонних аудиторов «является дорогостоящим и не является необходимым для смягчения рисков, связанных с базовыми моделями».

Группа также настаивает на том, что публикация инструментов искусственного интеллекта в открытых библиотеках не является коммерческой деятельностью, поэтому они не должны подпадать под регуляторные меры.

Компании говорят, что правила, запрещающие тестирование моделей искусственного интеллекта в реальных условиях, «существенно затруднят любое исследование и разработку». Они говорят, что открытое тестирование предоставляет уроки для улучшения функций. В настоящее время приложения искусственного интеллекта не могут быть протестированы вне закрытых экспериментов, чтобы избежать юридических проблем с непроверенными продуктами.

Предсказуемо, что компании, занимающиеся искусственным интеллектом, очень громко высказываются о том, что должно быть частью Закона об ИИ ЕС. OpenAI лоббировала законодателей ЕС против более строгих правил в отношении генеративного искусственного интеллекта, и некоторые из ее предложений попали в последнюю версию закона.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *