Meta*, принадлежащая Марку Цукербергу, на прошлой неделе выпустила открытую версию модели искусственного интеллекта под названием Llama 2 для общественного использования. Эта большая языковая модель (LLM) может использоваться для создания чат-ботов, подобных ChatGPT. Она доступна для стартапов, устоявшихся предприятий и отдельных разработчиков. Но почему Meta* делает это и каковы потенциальные риски?
Что делает LLM с открытым исходным кодом?
LLM является основой для инструментов искусственного интеллекта, таких как чат-боты. Они обучаются на обширных наборах данных, что позволяет им имитировать человеческий язык и даже компьютерное кодирование. Если LLM сделана открытой, это означает, что ее содержимое становится свободно доступным для людей, которые могут использовать и изменять ее по своему усмотрению.
Llama 2 выпускается в трех версиях, включая версию, которая может быть встроена в чат-бот искусственного интеллекта. Идея заключается в том, чтобы стартапы или устоявшиеся компании могли получить доступ к моделям Llama 2 и экспериментировать с ними для создания собственных продуктов, включая, возможно, конкурентов ChatGPT или чат-ботов Google Bard, хотя сама Meta* признает, что Llama 2 еще не достигла уровня GPT-4, LLM, стоящей за ChatGPT OpenAI.
Почему Meta* выпускает ее для общественного использования?
Ник Клегг, глава Meta* по глобальным вопросам, заявил в эфире программы Today на BBC Radio 4 в среду, что открытые LLM сделают их «более безопасными и лучшими», привлекая внешнюю экспертизу.
«С помощью … мудрости толпы вы на самом деле делаете эти системы более безопасными и лучшими и, что самое важное, выводите их из … липких рук крупных технологических компаний, которые в настоящее время являются единственными компаниями, у которых есть как вычислительная мощность, так и огромные запасы данных для создания этих моделей в первую очередь».
Также есть вероятность того, что, предоставив всем желающим возможность запустить конкурента ChatGPT, Bard или чат-бота Bing от Microsoft, Meta*, возможно, размывает конкурентное преимущество таких компаний, как Google.
Meta* признала в исследовании, опубликованном вместе с Llama 2, что она «отстает» от GPT-4, но она является бесплатным конкурентом OpenAI.
Microsoft является одним из ключевых финансовых партнеров OpenAI, но тем не менее поддерживает запуск Llama 2. LLM доступна для загрузки через платформы Microsoft Azure, Amazon Web Services и Hugging Face.
Есть ли опасения по поводу искусственного интеллекта с открытым исходным кодом?
Технические специалисты, включая Илона Маска, сооснователя OpenAI, высказывали опасения относительно гонки вооружений в области искусственного интеллекта. Открытое программное обеспечение делает мощный инструмент в этой области доступным для всех.
Венди Холл, профессор компьютерных наук в Университете Саутгемптона, заявила в программе Today, что возникают вопросы о том, можно ли доверять технологической отрасли для саморегулирования LLM, причем проблема становится еще более насущной для открытых моделей. «Это похоже на то, что мы даем людям шаблон для создания ядерной бомбы», — сказала она.
Доктор Эндрю Рогойски, из Института искусственного интеллекта, ориентированного на людей, при Университете Суррея, сказал, что сложно регулировать открытые модели. «Вы не можете регулировать открытый исходный код. Вы можете регулировать хранилища, такие как Github или Hugging Face, в соответствии с местным законодательством», — сказал он.
«Вы можете устанавливать лицензионные условия на программное обеспечение, которое, в случае злоупотребления, может сделать злоупотребляющую компанию ответственной в соответствии с различными формами правовой защиты. Однако открытый исходный код означает, что любой может получить к нему доступ, поэтому это не останавливает неправильных людей от использования программы или от ее неправильного использования».
Есть ли у Meta* меры предосторожности?
Если вы подаете заявку на загрузку Llama 2, вам потребуется согласиться с политикой «допустимого использования», которая включает запрет использования LLM для поощрения или планирования «насилия или терроризма» или создания дезинформации. Однако LLM, такие как ChatGPT, склонны производить ложную информацию и могут быть склонены к нарушению механизмов безопасности для создания опасного контента. Выпуск Llama 2 также сопровождается руководством по ответственному использованию для разработчиков.
*Meta признана экстремистcкой организацией в России.