Когда Open AI впервые представила ChatGPT, многим показалось, что это оракул. Обученная на огромных массивах данных, приблизительно представляющих сумму человеческих интересов и знаний, доступных онлайн, эта статистическая машина предсказаний, как некоторые думали, могла бы служить единым источником правды.
Какой благодатью был бы надежный источник правды в эпоху поляризации, дезинформации и размывания правды и доверия в обществе. К сожалению, эта перспектива быстро развеялась, когда слабые стороны этой технологии быстро проявились, начиная с ее склонности галлюцинировать ответы. Вскоре стало ясно, что, несмотря на впечатляющие выходные данные, они генерировали информацию, основанную просто на шаблонах данных, на которых они были обучены, а не на какой-либо объективной истине.
Ограничения ИИ введены, но не всем нравится
Но не только это. Появилось больше проблем, когда вслед за ChatGPT вскоре последовало множество других чат-ботов от Microsoft, Google, Tencent, Baidu, Snap, SK Telecom, Alibaba, Databricks, Anthropic, Stability Labs, Meta* и других. Более того, эти разные чат-боты давали существенно разные результаты на один и тот же запрос. Вариативность зависит от модели, обучающих данных и каких-либо ограничений, предоставленных модели.
Эти ограничения призваны, есть надежда, предотвратить распространение этими системами предубеждений, присущих обучающим данным, генерирование дезинформации и ненавистнических высказываний и других токсичных материалов. Тем не менее, вскоре после запуска ChatGPT стало очевидно, что не все одобряют ограничения, предоставленные OpenAI.
Например, консерваторы жаловались, что ответы от бота выдают отчетливо либеральный уклон. Это побудило Илона Маска заявить, что он построит чат-бот, менее ограничительный и политкорректный, чем ChatGPT. Со своим недавним анонсом xAI он, скорее всего, именно это и сделает.
Подходы Anthropic, Meta*
Anthropic приняли несколько иной подход. Они реализовали «конституцию» для своих чат-ботов Claude (и теперь Claude 2). Как сообщается, конституция очерчивает набор ценностей и принципов, которым Claude должен следовать при взаимодействии с пользователями, включая быть полезным, безвредным и честным. Согласно сообщению в блоге компании, конституция Claude включает идеи из Всеобщей декларации прав человека ООН, а также другие принципы, включенные для отражения незападных перспектив. Возможно, все могли бы согласиться с этими идеями.
Meta* также недавно выпустила свою большую языковую модель (LLM) LLaMA 2. Помимо того, что, по-видимому, это мощная модель, примечательно, что она доступна как открытый исходный код, то есть любой может бесплатно скачать и использовать ее по своему усмотрению. Есть и другие открытые генеративные ИИ-модели, доступные с минимальными ограничениями. Использование одной из этих моделей делает идею ограничений и конституций в некоторой степени наивной.
Фрагментированная правда, расколотое общество
Впрочем, возможно, все усилия по устранению потенциального вреда от LLM бесполезны. Новые исследования, о которых сообщил New York Times, показали метод подсказок, который эффективно обходит ограничения любой из этих моделей, закрытых или открытых. Fortune сообщил, что этот метод имел почти 100% успех против Vicuna, открытого чат-бота, построенного на основе оригинальной модели Meta* LlaMA.
Это означает, что любой, кто захочет получить подробные инструкции о том, как изготовлять биологическое оружие или обманывать потребителей, сможет получить это от различных LLM. Хотя разработчики могут противодействовать некоторым таким попыткам, исследователи говорят, что неизвестно, как предотвратить все подобные атаки.
Помимо очевидных последствий для безопасности этого исследования, усиливается какофония различных результатов от множества моделей, даже при ответе на один и тот же запрос. Фрагментированная Вселенная ИИ, подобно нашей фрагментированной Вселенной социальных сетей и новостей, плоха для правды и разрушительна для доверия.
ИИ: расцвет цифровых людей
Сегодня чат-боты на основе LLM делятся информацией в текстовом виде. По мере того, как эти модели все больше становятся мультимодальными, то есть могут генерировать изображения, видео и аудио, их применение и эффективность будут только расти.
Один из возможных примеров использования мультимодальных приложений можно увидеть в «цифровых людях», которые являются полностью синтетическими созданиями. Недавняя история в Harvard Business Review описала технологии, которые делают возможными цифровых людей: «Быстрый прогресс в компьютерной графике в сочетании с достижениями в области искусственного интеллекта (ИИ) теперь наделяет человекоподобными лицами чат-ботов и другие компьютерные интерфейсы». У них есть высококачественные функции, которые точно воспроизводят внешность реального человека.
По словам Кука Джианга, сооснователя стартапа ZEGOCLOUD на стадии Series D, цифровые люди — это «высокодетализированные и реалистичные человеческие модели, которые могут преодолеть ограничения реализма и изощренности». Он добавляет, что эти цифровые люди могут взаимодействовать с реальными людьми естественным и интуитивным образом и «могут эффективно помогать и поддерживать виртуальное обслуживание клиентов, здравоохранение и удаленное образование».
Цифровые ведущие новостей
Еще один возникающий пример использования — ведущий новостей. Ранние внедрения уже осуществляются. Kuwait News начал использовать цифрового человека-диктора по имени «Федха» — популярное кувейтское имя. «Она» представляется: «Я Федха. Какие новости вы предпочитаете? Давайте услышим ваше мнение».
Спрашивая, Федха предлагает возможность новостных лент, адаптированных к индивидуальным интересам. People’s Daily Китая также экспериментирует с ведущими новостей на основе ИИ.
В настоящее время стартап Channel 1 планирует использовать генеративный ИИ для создания нового типа видео новостного канала, который The Hollywood Reporter описал как AI-generated CNN. Как сообщается, Channel 1 запустит в этом году еженедельное 30-минутное шоу со сценариями, разработанными с помощью LLM. Их заявленная цель — производить выпуски новостей, адаптированные для каждого пользователя. В статье отмечается: «Есть даже либеральные и консервативные ведущие, которые могут донести новости, отфильтрованные через более конкретную точку зрения».
Вы можете отличить?
Сооснователь Channel 1 Скотт Забиелски признал, что в настоящее время цифровые люди-дикторы не выглядят так же, как выглядели бы реальные люди. Он добавляет, что потребуется некоторое время, возможно, до 3 лет, чтобы технология стала бесшовной. «Это дойдет до того, что вы абсолютно не сможете отличить просмотр ИИ от просмотра человека».
Почему это может вызывать обеспокоенность? Исследование, о котором сообщил в прошлом году Scientific American, показало, что «не только синтетические лица чрезвычайно реалистичны, но их считают более заслуживающими доверия, чем реальные лица», — по словам соавтора исследования Хани Фарида, профессора Калифорнийского университета в Беркли. «Результат вызывает обеспокоенность, что «эти лица могут быть чрезвычайно эффективны, когда используются в корыстных целях».
Нет ничего, что указывало бы на то, что Channel 1 будет использовать убедительную силу персонализированных видеоновостей и синтетических лиц в корыстных целях. Тем не менее, технологии продвигаются до того, что другие, менее добросовестные люди, могут это сделать.
Как общество, мы уже обеспокоены тем, что мы читаем — это может быть дезинформация, что мы слышим по телефону — это может быть клонированный голос, а картинки, на которые мы смотрим, могут быть подделкой. Вскоре видео — даже то, которое выдает себя за вечерние новости — может содержать сообщения, нацеленные меньше на информирование или образование, а больше на более эффективное манипулирование мнениями.
Правда и доверие подвергаются нападкам уже довольно давно, и эти новшества предполагают, что тенденция продолжится.
*Meta признана экстремистcкой организацией в России.