«Жуткая» ошибка ИИ Snapchat напоминает нам, что чат-боты — это не люди. Но по мере стирания границ риски растут

Чат-боты на основе искусственного интеллекта (ИИ) становятся все более похожими на людей в своих рассуждениях, настолько, что некоторые из нас могут затрудниться отличить человека от машины.

На этой неделе чат-бот My AI от Snapchat дал сбой и опубликовал историю, похожую на стену и потолок, а затем перестал отвечать пользователям. Естественно, интернет начал задаваться вопросом, не обрел ли этот чат-бот, работающий на основе ChatGPT, сознание.

Краткий курс грамотности в области ИИ мог бы развеять эту путаницу. Но помимо этого, данный инцидент напоминает нам, что по мере того, как чат-боты ИИ становятся все более похожими на людей, управление их внедрением будет становиться только сложнее — и важнее.

От чат-ботов на основе правил к адаптивным чат-ботам

С тех пор, как ChatGPT появился на наших экранах в конце прошлого года, многие цифровые платформы интегрировали ИИ в свои сервисы.

Такой ИИ, известный как генеративный ИИ, отличается от своих предшественников способностью генерировать новый контент, который точен, похож на человеческий и кажется осмысленным.

Генеративные инструменты ИИ, включая генераторы изображений ИИ и чат-ботов, построены на основе больших языковых моделей (LLM). Эти вычислительные модели анализируют связи между миллиардами слов, предложений и абзацев, чтобы предсказать, что должно следовать дальше в данном тексте. Как говорит сооснователь OpenAI Илья Суцкевер, LLM — это «[…] просто очень, очень хороший предсказатель следующего слова».

Продвинутые LLM также настраиваются с помощью обратной связи от людей. Это обучение, часто осуществляемое за счет бесчисленных часов дешевого человеческого труда, является причиной, по которой чат-боты ИИ могут теперь иметь кажущиеся человеческими разговоры.

ChatGPT от OpenAI по-прежнему является флагманской моделью генеративного ИИ. Его выпуск ознаменовал собой большой скачок от более простых чат-ботов на основе «правил», таких как те, которые используются в онлайн-обслуживании клиентов.

Чат-боты, похожие на людей, которые разговаривают с пользователем, связаны более высоким уровнем вовлеченности. Одно исследование показало, что персонификация чат-ботов приводит к повышению вовлеченности, которая со временем может превратиться в психологическую зависимость. Другое исследование с участием находящихся в состоянии стресса участников показало, что чат-бот, похожий на человека, скорее всего, будет восприниматься как компетентный, а значит, скорее всего, поможет снизить стресс участников.

Эти чат-боты также были эффективны в достижении организационных целей в различных средах, включая розничную торговлю, образование, рабочее место и здравоохранение.

Google использует генеративный ИИ для создания «личного жизненного тренера», который якобы поможет людям с различными личными и профессиональными задачами, включая предоставление советов по жизни и ответы на интимные вопросы.

Это несмотря на то, что собственные эксперты Google по безопасности ИИ предупреждают, что пользователи могут стать слишком зависимыми от ИИ и могут испытывать «ухудшение здоровья и благополучия» и «потерю субъектности», если будут брать советы по жизни у него.

Друг или враг – или просто бот?

В недавнем инциденте со Snapchat компания объяснила всё это «временным сбоем». Мы можем никогда не узнать, что на самом деле произошло; это может быть еще одним примером «галлюцинаций» ИИ или результатом кибератаки, или даже просто операционной ошибкой.

В любом случае, скорость, с которой некоторые пользователи предположили, что чат-бот стал разумным, показывает беспрецедентную антропоморфизацию ИИ. Это усугубляется отсутствием прозрачности со стороны разработчиков и нехваткой базовых знаний среди общественности.

Мы не должны недооценивать, как отдельные лица могут вводиться в заблуждение кажущейся подлинностью чат-ботов, похожих на людей.

Ранее в этом году самоубийство бельгийца было приписано беседам, которые он вел с чат-ботом о климатическом бездействии и будущем планеты. В другом примере чат-бот по имени Тесса, как выяснилось, давал вредные советы людям через горячую линию по расстройствам пищевого поведения.

Чат-боты могут быть особенно вредны для наиболее уязвимых среди нас, особенно для людей с психическими расстройствами.

Новая зловещая долина?

Вы, возможно, слышали об эффекте «зловещей долины». Этот термин относится к тому тревожному чувству, которое вы испытываете, увидев гуманоидного робота, который почти похож на человека, но небольшие несовершенства выдают его, и в итоге он кажется жутковатым.

Похоже, подобный опыт возникает и в нашем взаимодействии с чат-ботами, похожими на людей. Малейший сбой может заставить волосы на затылке встать дыбом.

Одним из решений может быть отказ от человеческих черт и возврат к чат-ботам, которые прямолинейны, объективны и фактичны. Но это приведёт к потере вовлеченности и инноваций.

Ключевыми являются образование и прозрачность

Даже разработчики продвинутых чат-ботов ИИ часто не могут объяснить, как они работают. И тем не менее, с некоторых точек зрения (и с точки зрения коммерческих организаций) преимущества перевешивают риски.

Генеративный ИИ продемонстрировал свою полезность в таких важных областях, как производительность, здравоохранение, образование и даже социальное равенство. Вряд ли он исчезнет. Так как сделать так, чтобы он работал на нас?

С 2018 года предпринимаются значительные усилия со стороны правительств и организаций по решению проблем рисков ИИ. Но применение ответственных стандартов и норм к технологии, которая более «человечна», чем любая другая, несет с собой множество трудностей.

В настоящее время в Австралии нет законодательного требования к компаниям раскрывать использование чат-ботов. В США Калифорния ввела «закон о ботах», который бы это требовал, но юридические эксперты нашли в нем дыры – и на данный момент закон еще не применялся.

Более того, ChatGPT и подобные чат-боты выпускаются публично как «исследовательские образцы». Это означает, что они часто сопровождаются множественными предупреждениями об их прототипической природе, а ответственность за их использование ложится на пользователя.

Закон об ИИ Европейского Союза, первое в мире комплексное регулирование ИИ, определил умеренное регулирование и образование как путь вперед – так как чрезмерное регулирование может сдержать инновации. Подобно цифровой грамотности, грамотность в области ИИ должна быть обязательной в школах, университетах и организациях, а также должна быть сделана бесплатной и доступной для населения.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *