Как научить роботов на основе искусственного интеллекта проявлять эмпатию, чтобы они не пожелали нас убить

Команда социальных ученых, нейрологов и психиатров из Института мозга и креативности Университета Южной Калифорнии, сотрудничая с коллегами из Института изучения продвинутого сознания, Университета Центральной Флориды и Медицинской школы Дэвида Геффена Калифорнийского университета в Лос-Анджелесе, опубликовали статью в журнале Science Robotics, в которой они предлагают новый подход к приданию роботам эмпатии. В своей работе они утверждают, что традиционные подходы могут быть неэффективными.

Практически по любым показателям внедрение ChatGPT и других подобных приложений на основе искусственного интеллекта повлияло на современное общество. Они используются для широкого спектра целей, но возникли разговоры о необходимости ограничения их развития из-за опасений, что они могут представлять угрозу для людей. Чтобы опровергнуть такие аргументы, некоторые специалисты в области искусственного интеллекта предлагают простое решение — научить приложения эмпатии. В этой новой статье авторы соглашаются с таким подходом, но различаются в том, как имитировать такое загадочное человеческое качество в машине.

Текущий подход к передаче роботам эмпатии заключается в обучении их видеть, как люди ведут себя в морально спорных ситуациях, и затем следовать такому поведению — и внедрении некоторых правил в их механизмы. Однако, по мнению авторов, такой подход не учитывает роль самосохранения в человеческой эмпатии. Если робот наблюдает видео, на котором человек испытывает боль при падении, например, его можно научить имитировать такую реакцию, чтобы установить связь с пострадавшим, но это будет лишь игра, поскольку робот не испытывает эмпатию.

Для этого роботу пришлось бы испытать ту же боль, которая может возникнуть при падении. И исследователи предлагают, что именно это необходимо сделать, чтобы роботы поняли, почему причинение кому-либо вреда плохо, а не программировать правила в их логические цепи. Они не предлагают программировать роботов на ощущение реальной боли, хотя в будущем это может быть возможно, а вместо этого — научить их видеть, что их действия могут иметь отрицательные последствия. Например, они могли бы остаться без своего человека-компаньона, если бы убили его. Или быть «убитыми» сами из-за своих поступков. Таким образом, они предлагают дать роботам способность испытывать страдания — эффективное средство самодисциплины, если такое вообще возможно.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *