Исследование, проведенное учеными-компьютерщиками из Великобритании и Бразилии, вызвало обеспокоенность объективностью ChatGPT.
Исследователи утверждают, что обнаружили существенную политическую предвзятость в ответах ChatGPT, которая наклоняется в сторону левой части политического спектра.
Опубликованное на этой неделе в журнале Public Choice, это исследование, проведенное Фабио Мотоки, Валдемаром Пиньо и Виктором Родригесом, утверждает, что наличие политической предвзятости в контенте, сгенерированном ИИ, может усугублять существующие предубеждения, обнаруженные в традиционных СМИ.
В исследовании подчеркивается потенциальное влияние такой предвзятости на различные заинтересованные стороны, включая лиц, определяющих политику, СМИ, политические группы и образовательные учреждения.
Используя эмпирический подход, исследователи применили ряд опросов для оценки политической ориентации ChatGPT. У чат-бота спрашивали ответы на вопросы политического компаса, фиксируя его позицию по различным политическим вопросам.
Кроме того, в исследовании изучались сценарии, в которых ChatGPT имитировал и среднестатистического демократа, и республиканца, что выявило присущую алгоритму предвзятость в отношении ответов демократов.
Выводы исследования показывают, что предвзятость ChatGPT выходит за рамки США и также заметна в его ответах, касающихся бразильского и британского политических контекстов. Примечательно, что исследование даже предполагает, что эта предвзятость является не просто механическим результатом, а преднамеренной тенденцией в выводах алгоритма.
Определить точный источник политической предвзятости ChatGPT остается сложной задачей. Исследователи изучили как обучающие данные, так и сам алгоритм, придя к выводу, что оба фактора, вероятно, способствуют предвзятости. Они подчеркнули необходимость дальнейших исследований для более четкого понимания происхождения предвзятости.
OpenAI, организация, стоящая за ChatGPT, пока не ответила на выводы исследования. Это исследование присоединяется к растущему списку проблем, связанных с технологиями ИИ, включая вопросы конфиденциальности, образования и проверки личности в различных секторах.
По мере того, как влияние инструментов ИИ, таких как ChatGPT, продолжает расширяться, эксперты и заинтересованные стороны борются с последствиями предвзятого контента, сгенерированного ИИ.
Это последнее исследование служит напоминанием о том, что бдительность и критическая оценка необходимы, чтобы обеспечить разработку и внедрение технологий ИИ справедливым и сбалансированным образом, без чрезмерного политического влияния.