OpenAI ограничивает возможности GPT-4 в области обработки изображений из-за опасений в отношении проблем с конфиденциальностью

OpenAI тестирует свою мультимодальную версию GPT-4 с поддержкой распознавания изображений перед планируемым широким выпуском. Однако публичный доступ ограничивается из-за опасений возможности модели распознавать конкретных людей, сообщает New York Times во вторник.

Когда OpenAI объявила о GPT-4 в начале этого года, компания подчеркнула мультимодальные возможности этой модели искусственного интеллекта. Это означало, что модель может не только обрабатывать и генерировать текст, но и анализировать и интерпретировать изображения, открывая новое измерение взаимодействия с моделью искусственного интеллекта.

После объявления OpenAI взяла на себя еще больше обязательств в области обработки изображений, сотрудничая с стартапом Be My Eyes, который разрабатывает приложение для описания изображений для незрячих пользователей, помогая им самостоятельно интерпретировать окружающую среду и взаимодействовать с миром.

В отчете New York Times рассказывается о опыте Джонатана Мозена, незрячего пользователя Be My Eyes из Новой Зеландии. Мозен с удовольствием использовал приложение для определения предметов в номере отеля, например, дозаторов шампуня, и для точной интерпретации изображений и их публикации в социальных сетях. Однако Мозен выразил разочарование, когда приложение недавно перестало предоставлять информацию о лицах, появлялось сообщение, что лица были затемнены в целях конфиденциальности.

Исследователь политики OpenAI Сандхини Агарвал подтвердила в интервью Times, что проблемы конфиденциальности — это причина, по которой организация ограничила возможности распознавания лиц у GPT-4. В настоящее время система OpenAI способна распознавать публичных фигур, таких как те, у кого есть страница в Wikipedia, но OpenAI беспокоится, что данная функция потенциально может нарушать законы о конфиденциальности в регионах, таких как Иллинойс и Европа, где использование биометрической информации требует явного согласия граждан.

Кроме того, OpenAI выразила беспокойство, что Be My Eyes может неправильно интерпретировать или искажать аспекты лиц людей, такие как пол или эмоциональное состояние, что может привести к неуместным или вредным результатам. OpenAI стремится решить эти и другие проблемы безопасности до того, как возможности анализа изображений GPT-4 станут широко доступными. Агарвал сказала Times: «Мы очень хотим, чтобы это был двусторонний разговор с общественностью. Если мы услышим, что нам не нужно ничего из этого, мы полностью поддержим это».

Несмотря на эти предосторожности, также были случаи путаницы и неправильной идентификации GPT-4, что подчеркивает сложности создания полезного инструмента, который не даст незрячим пользователям неточную информацию.

Тем временем Microsoft, крупный инвестор OpenAI, тестирует ограниченный выпуск инструмента для визуального анализа в своем чат-боте Bing, который основан на технологии GPT-4. Недавно на Twitter было замечено, как Bing Chat решает тесты CAPTCHA, предназначенные для отсеивания ботов, что также может задержать широкий выпуск функций обработки изображений Bing.

Google также недавно добавил возможности анализа изображений в свой чат-бот Bard, который позволяет пользователям загружать изображения для распознавания или обработки Bard. В наших тестах функция могла распознавать словесные CAPTCHA, хотя не всегда с абсолютной точностью. Уже сейчас некоторые сервисы, такие как Roblox, используют очень сложные CAPTCHA, вероятно, чтобы опережать аналогичные улучшения в области компьютерного зрения.

Этот вид компьютерного зрения, работающий на основе искусственного интеллекта, может стать доступным для всех устройств рано или поздно, но также ясно, что компаниям придется решить проблемы перед широким выпуском с минимальными этическими последствиями.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *