Использование ChatGPT снижается, так как пользователи жалуются на «глупые» ответы, и причиной этого может быть самая большая угроза ИИ в будущем

Стал ли ChatGPT уже устаревшей новостью? Кажется невозможным, учитывая взрывную популярность искусственного интеллекта, проникающего во все аспекты нашей жизни — будь то цифровые шедевры, созданные лучшими генераторами искусственного интеллекта, или помощь в онлайн-покупках.

Но несмотря на то, что ChatGPT является лидером в гонке искусственного интеллекта и обеспечивает функционирование Microsoft’s Bing AI, похоже, что у ChatGPT может снижаться темп. Согласно данным SimilarWeb, посещаемость сайта OpenAI’s ChatGPT упала почти на 10% по сравнению с прошлым месяцем, а метрики Sensor Tower также показали снижение загрузок приложения для iOS.

Как сообщает Insider, платные пользователи более мощной модели GPT-4 (доступ к которой включен в ChatGPT Plus) жалуются в социальных сетях и на форумах OpenAI о снижении качества ответов чатбота.

Общее мнение заключалось в том, что GPT-4 способен генерировать ответы быстрее, но на более низком уровне качества. Питер Янг, руководитель продукта в Roblox, высказался на Twitter, осуждая последние работы бота и утверждая, что «качество стало хуже». Один из пользователей форума сказал, что недавнее взаимодействие с GPT-4 вызывает ощущение «поездки на Феррари в течение месяца, а затем вдруг она превращается в старую сломанную грузовую машину».

«Выходные данные GPT-4 изменились в последнее время. Он генерирует быстрее, но качество стало хуже. Возможно, OpenAI пытается сэкономить средства. Кто-то еще заметил это?»

Почему GPT-4 внезапно испытывает затруднения?

Некоторые пользователи выражались еще более резко, называя бота «глупее» и «ленивее», чем раньше, и на форумах OpenAI появилась длинная ветка с самыми разнообразными жалобами. Один пользователь под ником «bitbytebit» описал его как «полностью ужасный сейчас» и «безмозглый по сравнению с ранней версией».

По словам пользователей, несколько недель назад GPT-4 стал значительно быстрее, но это произошло за счет снижения производительности. Сообщество искусственного интеллекта предполагает, что это может быть связано с изменением концепции разработки OpenAI за более мощной моделью машинного обучения — а именно, разделение ее на несколько более мелких моделей, обученных в определенных областях, которые могут взаимодействовать для достижения одного и того же результата, при этом становясь более дешевыми для OpenAI в эксплуатации.

OpenAI еще не подтвердила официально, что это так, поскольку не было упоминаний о таком значительном изменении в работе GPT-4. Это объяснение является вероятным, согласно отраслевым экспертам, таким как Шэрон Чжоу, генеральный директор компании по созданию искусственного интеллекта Lamini, которая описала идею мульти-модели как «естественный следующий шаг» в развитии GPT-4.

Искусственный интеллект поедает искусственный интеллект

Однако у ChatGPT есть еще одна насущная проблема, которую некоторые пользователи подозревают в возможном падении производительности — это проблема, с которой отрасль искусственного интеллекта, похоже, не готова справиться.

Если вам не знаком термин «каннибализация искусственного интеллекта», то если кратко это означает что большие языковые модели (LLM), такие как ChatGPT и Google Bard, сканируют общедоступный интернет в поисках данных для генерации ответов. В последние месяцы наличие значительного количества контента, созданного искусственным интеллектом, в Интернете — включая нежелательный поток книг, авторами которых являются искусственные интеллекты, на платформе Kindle Unlimited — означает, что LLM все чаще могут использовать материалы, которые уже были созданы искусственным интеллектом, при поиске информации в сети.

Это создает риск образования замкнутого цикла, где модели искусственного интеллекта «обучаются» на контенте, который сам был создан искусственным интеллектом, что приводит к постепенному снижению связности и качества результатов. Поскольку сейчас доступно множество LLM как для профессионалов, так и для широкой публики, риск каннибализации искусственного интеллекта становится все более актуальным, особенно учитывая, что до сих пор не было никаких значимых демонстраций того, как модели искусственного интеллекта могут точно различать «реальную» информацию от контента, созданного искусственным интеллектом.

Обсуждения вокруг искусственного интеллекта в основном сосредоточены на рисках, которые он представляет для общества. Например, владелец Facebook* компания Meta* недавно отказалась предоставить публичный доступ к своему новому искусственному интеллекту генерирующему речь после того, как его посчитали «слишком опасным» для выпуска. Но каннибализация контента является большим риском для будущего самого искусственного интеллекта, что угрожает функциональности таких инструментов, как ChatGPT, которые зависят от оригинальных материалов, созданных людьми, чтобы обучаться и генерировать контент.

*Деятельность Meta (Facebook и Instagram) запрещена в России как экстремистская.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *