Grok, языковая модель искусственного интеллекта, созданная компанией Илона Маска xAI, появилась в широком доступе только на прошлой неделе, а люди уже начали замечать сбои. В пятницу тестировщик безопасности Джакс Уинтерборн опубликовал в твиттере скриншот, на котором Grok отклоняет запрос со словами: «Боюсь, я не могу выполнить этот запрос, поскольку он противоречит политике использования OpenAI». Это заставило насторожиться, поскольку Grok не является продуктом OpenAI — компании, создавшей ChatGPT, с которым Grok призван конкурировать.
Интересно, что представители xAI не стали отрицать, что подобное поведение имеет место в их модели ИИ. В ответ сотрудник xAI Игорь Бабушкин написал: «Проблема в том, что в сети полно результатов работы ChatGPT, и мы случайно зацепили некоторые из них, когда обучали Grok на большом количестве веб-данных. Когда мы впервые заметили это, для нас это было огромным сюрпризом. Как бы то ни было, эта проблема встречается очень редко, и теперь, когда мы знаем о ней, мы постараемся, чтобы в будущих версиях Grok этой проблемы не было. Не волнуйтесь, при создании Grok не использовался код OpenAI».
В ответ Бабушкину Уинтерборн написал: «Спасибо за ответ. Я скажу, что это не такая уж и редкость, и встречается довольно часто, когда речь идет о создании кода. Тем не менее, я позволю людям, специализирующимся на LLM и ИИ, высказать свое мнение по этому поводу. Я же просто наблюдатель».
Однако объяснение Бабушкина кажется некоторым экспертам маловероятным, поскольку большие языковые модели обычно не выдают свои обучающие данные дословно, что следовало бы ожидать, если бы Grok уловил несколько случайных упоминаний о политике OpenAI здесь или там в сети. Скорее всего, для того чтобы вывести запрет на вывод на основе политик OpenAI, придется специально обучать модель. И есть очень веская причина, по которой это могло произойти: Grok был тонко настроен на выходных данных языковых моделей OpenAI.
«Я с некоторым подозрением отношусь к утверждениям, что Grok узнал об этом только потому, что в Интернете полно контента ChatGPT», — сказал исследователь ИИ Саймон Уиллисон в интервью Ars Technica. «Я видел множество открытых моделей на Hugging Face, которые демонстрируют такое же поведение — ведут себя так, как будто они ChatGPT, — однако это было неизбежно, поскольку они были тонко настроены на наборах данных, созданных с помощью API OpenAI, или взятых из самого ChatGPT. Я думаю, что более вероятно, что Grok был настроен на наборах данных, включающих результаты ChatGPT, чем то, что это была полная случайность, основанная на веб-данных».
По мере того как большие языковые модели (LLM) из OpenAI становятся все более функциональными, в некоторых проектах ИИ (особенно с открытым исходным кодом) все более распространенной становится практика тонкой настройки выходных данных модели ИИ с использованием синтетических данных — обучающих данных, сгенерированных другими языковыми моделями. Тонкая настройка позволяет после первоначального обучения скорректировать поведение модели ИИ в соответствии с конкретной целью, например, сделать ее лучше в кодировании. Например, в марте группа исследователей из Стэнфордского университета произвела фурор, представив Alpaca — версию модели LLaMA 7B компании Meta*, которая была настроена на выполнение инструкций с использованием результатов модели GPT-3 компании OpenAI под названием text-davinci-003.
В Интернете можно легко найти несколько наборов данных с открытым исходным кодом, собранных исследователями на основе результатов ChatGPT, и вполне возможно, что xAI использовала один из них для тонкой настройки Grok под какую-то конкретную цель, например, для улучшения способности следовать инструкциям. Эта практика настолько распространена, что даже существует статья в WikiHow под названием «Как использовать ChatGPT для создания набора данных».
Это один из способов использования инструментов ИИ для создания более сложных инструментов ИИ в будущем, подобно тому, как люди начали использовать микрокомпьютеры для разработки более сложных микропроцессоров, чем те, которые можно было нарисовать ручкой на бумаге. Однако в будущем xAI, возможно, удастся избежать подобного сценария за счет более тщательной фильтрации обучающих данных.
Несмотря на то, что заимствование чужих результатов может быть обычным делом в сообществе машинного обучения (несмотря на то, что это обычно противоречит условиям предоставления услуг), этот эпизод особенно раздул пламя соперничества между OpenAI и X, которое восходит к критике Илона Маска в адрес OpenAI в прошлом. Когда распространилась новость о возможном заимствовании Grok у OpenAI, официальный аккаунт ChatGPT написал: «У нас много общего» и процитировал пост Уинтерборна из X. В ответ Маск написал: «Ну, сынок, раз уж ты взял все данные с этой платформы для своего обучения, ты должен знать».
*Meta признана экстремистcкой организацией в России.