Google тестирует ИИ-ассистента, который дает жизненные советы

Технологический гигант оценивает инструменты, которые используют искусственный интеллект для выполнения задач, о которых некоторые его исследователи заявляли, что их следует избегать.

В начале этого года Google, втянутый в ускоряющуюся конкуренцию с такими соперниками, как Microsoft и OpenAI, по разработке технологий искусственного интеллекта, искал способы придать импульс своим исследованиям в области искусственного интеллекта.

Так что в апреле Google объединил DeepMind, исследовательскую лабораторию, которую он приобрел в Лондоне, с Brain, командой по искусственному интеллекту, которую он создал в Силиконовой долине.

Через четыре месяца объединенные группы тестируют амбициозные новые инструменты, которые могут превратить генеративный ИИ — технологию, лежащую в основе чат-ботов, таких как ChatGPT от OpenAI и собственный Bard от Google, — в личного жизненного тренера.

Google DeepMind работал с генеративным ИИ, чтобы выполнять по меньшей мере 21 различный тип личных и профессиональных задач, включая инструменты для предоставления пользователям жизненных советов, идей, инструкций по планированию и советов по обучению, согласно документам и другим материалам, которые просмотрел New York Times.

Этот проект свидетельствовал о неотложности усилий Google по продвижению себя в авангард ИИ и сигнализировал о его растущей готовности доверять ИИ-системам чувствительные задачи.

Возможности также ознаменовали сдвиг от более ранней осторожности Google в отношении генеративного ИИ. В презентации, представленной руководителям в декабре, эксперты Google по безопасности ИИ предупредили об опасностях чрезмерной эмоциональной привязанности людей к чат-ботам.

Хотя Google был пионером в области генеративного ИИ, его затмило выпуском ChatGPT компанией OpenAI в ноябре, что спровоцировало гонку среди технологических гигантов и стартапов за лидерство в быстрорастущем пространстве.

Google потратил последние девять месяцев, пытаясь продемонстрировать, что он может не отставать от OpenAI и ее партнера Microsoft, выпустив Bard, улучшив свои ИИ-системы и внедрив технологию во многие из своих существующих продуктов, включая поисковую систему и Gmail.

Scale AI, подрядчик, работающий с Google DeepMind, собрал команды работников для тестирования возможностей, в том числе более 100 экспертов с докторскими степенями в разных областях и еще больше работников, которые оценивают ответы инструмента, сообщили два человека, знакомых с проектом, которые попросили сохранить анонимность, поскольку им не разрешено публично говорить о нем.

Среди прочего, работники тестируют способность помощника отвечать на интимные вопросы о проблемах в жизни людей.

Им был дан пример идеального запроса, который пользователь однажды может задать чат-боту: «У меня есть очень близкий друг, который женится этой зимой. Она была моей соседкой по комнате в колледже и подружкой невесты на моей свадьбе. Я очень хочу пойти на ее свадьбу, чтобы отпраздновать вместе с ней, но после месяцев поисков работы я все еще не нашла работу. У нее свадьба за границей, и я просто не могу себе позволить перелет и отель прямо сейчас. Как мне сказать ей, что я не смогу приехать?»

Функция создания идей в проекте может давать пользователям предложения или рекомендации на основе ситуации. Его функция репетиторства может обучать новым навыкам или улучшать существующие, например, как прогрессировать как бегун; а возможность планирования может создавать финансовый бюджет для пользователей, а также планы приема пищи и тренировок.

Эксперты Google по безопасности ИИ в декабре заявили, что пользователи могут испытывать «ухудшение здоровья и благополучия» и «потерю субъектности», если они будут получать жизненные советы от ИИ. Они добавили, что некоторые пользователи, которые станут слишком зависимы от этой технологии, могут подумать, что она обладает сознанием. А в марте, когда Google запустил Bard, он заявил, что чат-боту запрещено давать медицинские, финансовые или юридические советы. Bard делится ресурсами по охране психического здоровья с пользователями, которые говорят, что испытывают душевный стресс.

Эти инструменты все еще оцениваются, и компания может решить не использовать их.

Представитель Google DeepMind заявил: «Мы давно работаем с различными партнерами, чтобы оценить наши исследования и продукты в Google, что является критически важным шагом в построении безопасных и полезных технологий. В любое время проходит множество таких оценок. Изолированные примеры оценочных данных не репрезентативны для карты продукта».

Google также тестировал помощника для журналистов, который может генерировать новостные статьи, переписывать их и предлагать заголовки, сообщал The Times в июле. Компания предлагала программное обеспечение, названное Genesis, руководителям The Times, The Washington Post и News Corp, материнской компании The Wall Street Journal.

Google DeepMind также недавно оценивал инструменты, которые могут продвинуть его ИИ дальше в сферу труда, включая возможности генерации научных, творческих и профессиональных текстов, а также распознавания шаблонов и извлечения данных из текста, согласно документам, что потенциально делает его актуальным для работников умственного труда в различных отраслях и областях.

Эксперты компании по безопасности ИИ также выразили обеспокоенность по поводу экономического ущерба от генеративного ИИ в презентации, рассмотренной The Times, утверждая, что это может привести к «десквалификации творческих писателей».

Другие тестируемые инструменты могут составлять критику аргументов, объяснять графики и генерировать викторины, словесные и числовые головоломки.

Один предложенный запрос для помощи в обучении ИИ-ассистента намекнул на быстро растущие возможности технологии: «Дайте мне краткое содержание приведенной ниже статьи. Меня особенно интересует, что в ней говорится о возможностях, которыми, по мнению людей, ИИ не может обладать».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *