«Галлюцинирующие» модели искусственного интеллекта стали источником слова года «галлюцинировать» для Кембриджского словаря

В среду Кембриджский словарь объявил словом 2023 года слово «галлюцинировать», что связано с популярностью больших языковых моделей (LLM) типа ChatGPT, которые иногда выдают ошибочную информацию. Словарь также опубликовал иллюстрированный сайт, объясняющий этот термин: «Когда искусственный интеллект галлюцинирует, он выдает ложную информацию».

«Команда Кембриджского словаря выбрала «галлюцинировать» в качестве слова 2023 года, поскольку признала, что новое значение этого слова отражает суть того, почему люди говорят об искусственном интеллекте», — пишет словарь. «Генеративный ИИ — мощный инструмент, но мы все еще учимся взаимодействовать с ним безопасно и эффективно — это означает, что нужно осознавать как его потенциальные достоинства, так и существующие недостатки».

Как уже было рассказано в различных статьях, «галлюцинация» применительно к ИИ возникла как художественный термин в сфере машинного обучения. В конце прошлого года, когда LLM вошли в обиход через такие приложения, как ChatGPT, этот термин стал использоваться повсеместно и начал вызывать недоумение у некоторых, которые увидели в нем ненужный антропоморфизм. Первое определение галлюцинации в Кембриджском словаре (для людей) — это «кажется, что видишь, слышишь, чувствуешь или обоняешь что-то несуществующее». Оно подразумевает восприятие со стороны сознания и некий объект для этой ассоциации.

Как и любое другое слово, его определение в значительной степени зависит от контекста. Когда исследователи машинного обучения используют термин «галлюцинация» (а они по-прежнему часто это делают, судя по научным работам), они, как правило, понимают ограничения LLM — например, что модель ИИ не является живой или «сознательной» по человеческим меркам, — но широкая публика может этого не понимать. Поэтому в статье о галлюцинациях, опубликованной в начале этого года, был предложен альтернативный термин — «конфабуляция», который, возможно, более точно описывает принцип творческого заполнения пробелов в работе моделей ИИ без багажа восприятия.

Широкое использование термина «галлюцинация» для обозначения ошибок таких систем, как ChatGPT, представляет собой интересный пример того, как мы думаем об ИИ и антропоморфизируем его», — отметил в своем заявлении Генри Шевлин, специалист по этике ИИ из Кембриджского университета. «Я ожидаю, что по мере продолжения этого десятилетия наш психологический словарь будет расширяться, чтобы охватить странные способности новых интеллектов, которые мы создаем».

За последний год галлюцинации привели к юридическим неприятностям как для отдельных людей, так и для компаний. В мае адвокат, ссылавшийся на фальшивые дела, сфабрикованные ChatGPT, попал в неприятности с судьей и был впоследствии оштрафован. В апреле Брайан Худ подал в суд на OpenAI за клевету, когда ChatGPT ошибочно утверждал, что Худ был осужден за скандал с иностранным взяточничеством. Впоследствии дело было урегулировано во внесудебном порядке.

На самом деле LLM постоянно «галлюцинируют». Они выстраивают ассоциации между понятиями из того, что усвоили в процессе обучения (и последующей доработки), и это не всегда точные умозаключения. Там, где есть пробелы в знаниях, они генерируют наиболее вероятный ответ. Во многих случаях, при наличии качественных обучающих данных и правильной настройки, это может быть правильным, но в других случаях — нет.

На сегодняшний день, похоже, OpenAI является единственной технологической компанией, которой удалось существенно снизить количество ошибочных галлюцинаций в GPT-4, что является одной из причин, по которой эта модель все еще считается лидирующей. Как им удалось этого добиться, является частью секретного соуса OpenAI, но главный научный сотрудник OpenAI Илья Суцкевер ранее упоминал, что, по его мнению, RLHF может дать возможность уменьшить количество галлюцинаций в будущем. RLHF, или обучение с подкреплением через обратную связь с человеком, — это процесс, при котором люди оценивают ответы языковой модели, и эти результаты используются для дальнейшей настройки модели.

Вендалин Николс, менеджер по изданию Кембриджского словаря, в своем заявлении отметила: «Тот факт, что ИИ может «галлюцинировать», напоминает нам о том, что люди все еще должны использовать свои навыки критического мышления при работе с этими инструментами. ИИ прекрасно справляется с перебором огромных массивов данных, извлекая из них конкретную информацию и консолидируя ее. Но чем больше оригинальности от них требуется, тем больше вероятность того, что они собьются с пути».

По данным словаря, этот год стал знаменательным для слов, связанных с искусственным интеллектом. Кембридж сообщает, что в 2023 году в словарь будут добавлены и другие термины, связанные с ИИ, в том числе «большая языковая модель», «AGI», «генеративный ИИ» и «GPT».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *