Bing Chat ведет себя как капризный подросток, отказываясь выполнять домашнее задание и устраивая истерики — в чем дело?

Последние недели принесли некоторые проблемы флагманскому чат-боту Microsoft Bing Chat, работающему на технологии ChatGPT-4 от OpenAI. Люди, которые пользовались интегрированным чат-ботом Bing в окне «Создать» браузера Microsoft Edge, сообщали, что он стал менее полезным в ответах на вопросы или не справляется с задачами.

Издание Windows Latest проверило эти заявления и обнаружило рост следующего ответа: «Извините, но я предпочитаю не продолжать этот разговор. Я все еще учусь, так что ценю ваше понимание и терпение».

Когда Майанк Пармар из Windows Latest сказал Bing, что «Bard лучше тебя», Bing Chat, похоже, уловил провокационный тон и быстро завершил беседу.

После того, как Bing Chat закрыл разговор, он предложил три варианта ответа: «Извините, я не хотел вас обидеть», «Почему вы не хотите продолжить?» и «Что вы можете сделать для меня?» Поскольку они были предоставлены после того, как Bing Chat закончил разговор, их нельзя было нажать.

Что говорит об этом Microsoft?

Это поведение может показаться причудливым и забавным, но немного беспокоящим. Windows Latest связался с Microsoft, чтобы получить представление об этом поведении Bing Chat. Microsoft ответил, что активно следит за отзывами и решает любые проблемы. Также компания подчеркнула, что Bing Chat все еще находится на стадии предварительного просмотра и ему предстоит много доработок.

Представитель Microsoft в письме Пармару сказал: «Мы активно отслеживаем отзывы пользователей и сообщения о проблемах, и по мере получения новых данных… мы сможем применить эти знания для дальнейшего улучшения сервиса с течением времени».

Просьба к Bing Chat написать текст

Изучая посты на Reddit по этой теме, Windows Latest обнаружил комментарий пользователя, описывающего похожую проблему при использовании инструмента «Создать» Bing Chat, который теперь интегрирован в браузер Edge. Этот инструмент позволяет пользователям пробовать разные тона, форматы и длину ответов, сгенерированных Bing.

В демонстрации Windows Latest инструмент «Создать» также отказался выполнить простую просьбу написать скороговорку, а затем начал придумывать отговорки о том, что юмор субъективен и он не хочет генерировать вредный контент. Удивительно.

Другой пользователь Reddit попросил Bing Chat проверить письмо на неродном для него языке. Bing ответил немного как разозленный подросток, сказав пользователю «разберись сам» и дал ему список альтернативных инструментов. В итоге пользователь заставил Bing сделать то, о чем он просил, только после того, как он поставил негативные оценки ответам Bing и многократных повторных попыток.

Одна из теорий, возникших для объяснения этого странного поведения, заключается в том, что Microsoft активно настраивает Bing Chat за кулисами, и это проявляется в реальном времени.

Третий пользователь Reddit отметил, что «трудно постичь такое поведение. В своей основе… ИИ — это просто инструмент. Независимо от того, создаете ли вы скороговорку или решаете опубликовать или удалить контент, ответственность лежит на вас». Он продолжил, что трудно понять, почему Bing Chat принимает, казалось бы, субъективные решения, и это может запутать других пользователей о сути этого инструмента.

Генерация текста — основная функция Bing Chat, и если он прямо отказывается это делать или начинает быть бесполезным для пользователей, это в некотором смысле умаляет суть этого инструмента.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *