Хороший ИИ, плохой ИИ: определение ответственного искусственного интеллекта

Искусственный интеллект (ИИ) сейчас очень популярен. ChatGPT, DALL-E и другие системы, основанные на искусственном интеллекте, предлагают нам совершенно новые способы работы. Генеративный ИИ пишет все — от сопроводительных писем до стратегий избирательных кампаний — и создает впечатляющие изображения с нуля.

Впрочем, если отбросить в сторону занятные картинки, международные регулирующие органы, мировые лидеры, исследователи и представители технологической индустрии задаются реальными вопросами о рисках, которые несет в себе ИИ.

ИИ поднимает серьезные этические проблемы, отчасти потому, что люди — создания предвзятые. Эта предвзятость может усиливаться, когда мы обучаем ИИ. Плохо подобранные или плохо обработанные данные, в которых отсутствует разнообразие, могут привести к проявлению активной дискриминации со стороны ИИ. Мы наблюдали предвзятость в полицейских системах распознавания лиц, которые могут неправильно идентифицировать представителей цветного населения, или в оценках выдачи кредитов на покупку жилья, в которых непропорционально часто отказывают некоторым группам меньшинств. Это примеры реального вреда от ИИ, когда перед запуском не была проведена соответствующая оценка эффективности систем контроля и сбалансированности ИИ.

Генерируемая ИИ дезинформация, такая как галлюцинации и дипфейки, также представляет собой актуальную проблему для правительств, мировых лидеров и пользователей технологий. Никто не хочет, чтобы его лицо или голос пытались подделать в Интернете. Главный вопрос заключается в том, как использовать ИИ во благо и при этом не навредить?

Создание «ответственного ИИ»

Лиминг Чжу и Цинхуа Лу являются лидерами в области изучения ответственного ИИ в CSIRO и соавторами книги «Ответственный ИИ: лучшие практики создания надежных систем ИИ (Responsible AI: Best practices for creating trustworthy AI systems)». Они определяют ответственный ИИ как практику разработки и использования систем ИИ таким образом, чтобы они приносили пользу отдельным людям, группам людей и обществу в целом, сводя к минимуму риск негативных последствий.

В ходе консультаций с сообществами, правительством и промышленностью эти исследователи разработали восемь добровольных этических принципов ИИ. Они призваны помочь разработчикам и организациям создавать и внедрять безопасный, надежный и достоверный ИИ.

Благополучие человека, общества и окружающей среды

Этот принцип объясняет, что на протяжении всего своего жизненного цикла системы ИИ должны приносить пользу человеку, обществу и окружающей среде. Можно привести множество примеров использования ИИ во благо: от использования ИИ для совершенствования рентгенодиагностики грудной клетки до средств обнаружения мусора с помощью ИИ для защиты наших водных ресурсов. Для предотвращения вреда разработчикам ИИ необходимо продумать потенциальные последствия применения своих технологий — как положительные, так и отрицательные, — чтобы расставить приоритеты и управлять ими.

Ценности, ориентированные на человека

Системы ИИ должны уважать права человека, разнообразие и автономию личности. Это позволит создать прозрачные и объяснимые системы ИИ, ориентированные на человеческие ценности. Исследователи обнаружили, что это выгодно компаниям: негативные отзывы со стороны пользователей Amazon Alexa были связаны с игнорированием таких человеческих ценностей, как наслаждение жизнью или послушание.

Но это не всегда просто, поскольку у разных групп пользователей разные потребности. Возьмем, к примеру, приложение Seeing AI компании Microsoft, которое использует компьютерное зрение для помощи людям с нарушениями зрения. Согласно отчету компании, наиболее востребованной функцией у этой группы пользователей была возможность распознавания людей в общественных местах. Из соображений конфиденциальности эта функция была отключена.

Справедливость

Системы искусственного интеллекта должны быть инклюзивными и доступными. Их использование не должно приводить к несправедливой дискриминации отдельных людей, сообществ или групп. Технология распознавания лиц, разработанная компанией Amazon, подвергалась критике за то, что она может использоваться для массовой слежки, расового профилирования и менее точно идентифицировать цветных людей и женщин, чем белых мужчин. Необходимо учитывать влияние ИИ на общество. Прежде чем внедрять потенциально спорную технологию в жизнь, следует запросить мнение и рекомендации у тех сообществ, на которые будет воздействовать ИИ.

Защита частной жизни и ее безопасность

Системы искусственного интеллекта должны уважать и поддерживать права на неприкосновенность частной жизни. Ваши персональные данные должны запрашиваться и собираться только в случае необходимости, должны надлежащим образом храниться и защищаться от атак. К сожалению, это не всегда соблюдается разработчиками. Так, компания Clearview AI была уличена в нарушении австралийского законодательства о защите персональных данных, поскольку без согласия пользователя собирала биометрическую информацию из Интернета и использовала ее в своей системе распознавания лиц.

Надежность и безопасность

Системы искусственного интеллекта должны надежно работать в соответствии с их назначением. Хорошим способом предотвращения вреда является проведение пилотных исследований с предполагаемыми пользователями в безопасных условиях до того, как технология будет выпущена на рынок. Это позволит избежать ситуаций, подобных той, что произошла с печально известным чат-ботом Tay. В итоге Tay стал генерировать расистские и сексистские высказывания на почве ненависти из-за непредвиденной и потому непроверенной уязвимости в системе.

Прозрачность и объяснимость

Использование ИИ должно быть прозрачным и четко раскрытым. Люди должны иметь возможность понять последствия и ограничения используемого инструмента. Например, компании могут пояснить, что их чат-боты могут «галлюцинировать», генерируя неправильные или бессмысленные ответы. Пользователей также можно побуждать к проверке фактов в получаемой ими информации.

Оспариваемость

Системы ИИ могут оказывать существенное влияние на человека, сообщество, группу людей или окружающую среду. В таких случаях должен быть предусмотрен своевременный механизм, позволяющий людям оспорить использование или результаты работы системы ИИ. Это может включать в себя наличие формы отчета или кнопки для возражений, вопросов или сообщений о безответственном ИИ.

Подотчетность

Люди, ответственные за все составляющие ИИ — от разработки до внедрения, — должны быть идентифицированы и подотчетны, а надзор за системами ИИ должен осуществляться людьми. Ищите инструменты, разработанные теми, кто поощряет и вознаграждает этичное и ответственное использование ИИ в компаниях, особенно на уровне руководства.

Как распознать недобросовестное поведение ИИ и что с этим делать?

Хотя ИИ может быть прекрасным инструментом общего назначения, использование алгоритмов ИИ для оценки ситуаций с высокой степенью риска для конкретных людей — не самая лучшая идея. В одном из американских примеров на основании алгоритмического решения одному человеку был вынесен более длительный тюремный срок.

«Подобные системы «черного ящика» ИИ не позволяют пользователям и заинтересованным сторонам понять и опротестовать принятые решения, которые их затрагивают», — сказал Цинхуа.

«Учитывая сложность и автономность ИИ, не всегда возможно полностью проверить соблюдение всех принципов ответственного ИИ до его развертывания», — предупреждает Лиминг.

«Это делает мониторинг ИИ со стороны пользователей критически важным. Мы призываем всех пользователей сообщать о любых нарушениях поставщику услуг или властям, а также привлекать к ответственности поставщиков услуг и продуктов ИИ, чтобы помочь нам построить лучшее будущее в сфере искусственного интеллекта».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *