Безопасность ИИ и предвзятость — это срочные и в то же время сложные проблемы для исследователей безопасности. По мере интеграции ИИ во все аспекты общества, понимание его процесса разработки, функциональности и потенциальных недостатков имеет первостепенное значение.
Лама Нахман, директор лаборатории исследований интеллектуальных систем Intel Labs, сказала, что включение вклада от разнообразного спектра экспертов в области в процесс обучения ИИ является существенным. Она утверждает: «Мы предполагаем, что система ИИ учится у эксперта в этой области, а не у разработчика ИИ… Человек, обучающий систему ИИ, не понимает, как программировать систему ИИ… и система может автоматически создавать эти модели распознавания действий и диалога».
Это представляет собой захватывающую, но потенциально дорогую перспективу, с возможностью дальнейшего улучшения системы по мере взаимодействия с пользователями. Нахман объясняет: «Есть части, которые вы определенно можете использовать из общего аспекта диалога, но есть много вещей в плане конкретики того, как люди выполняют вещи в физическом мире, что не похоже на то, что вы бы сделали в ChatGPT. Это показывает, что в то время как существующие технологии ИИ предлагают отличные системы диалога, переход к пониманию и выполнению физических задач — это совсем другая проблема», — сказала она.
Безопасность ИИ может быть скомпрометирована, по ее словам, несколькими факторами, такими как плохо определенные цели, отсутствие надежности и непредсказуемость ответа ИИ на конкретные входные данные. Когда система ИИ обучается на большом наборе данных, она может изучить и воспроизвести вредные поведения, найденные в данных.
Предвзятость в системах ИИ также может привести к несправедливым результатам, таким как дискриминация или несправедливое принятие решений. Предвзятость может попасть в системы ИИ множеством способов; например, через данные, используемые для обучения, которые могут отражать предрассудки, присутствующие в обществе. По мере того, как ИИ продолжает проникать в различные аспекты человеческой жизни, потенциал вреда из-за предвзятых решений значительно возрастает, подчеркивая необходимость эффективных методологий для выявления и смягчения этих предубеждений.
Еще одна проблема — это роль ИИ в распространении дезинформации. По мере того, как становятся более доступными сложные инструменты ИИ, растет риск того, что их будут использовать для генерации вводящего в заблуждение контента, который может ввести в заблуждение общественное мнение или продвигать ложные нарративы. Последствия могут быть далеко идущими, включая угрозы демократии, здравоохранению и социальной сплоченности. Это подчеркивает необходимость создания надежных контрмер для смягчения распространения дезинформации с помощью ИИ и для проведения постоянных исследований, чтобы опережать развивающиеся угрозы.
С каждым нововведением неизбежно возникает ряд проблем. Нахман предложила, чтобы системы ИИ были разработаны так, чтобы «соответствовать человеческим ценностям» на высоком уровне, и предлагает основанный на оценке рисков подход к разработке ИИ, который учитывает доверие, подотчетность, прозрачность и объяснимость. Решение проблем ИИ сейчас поможет гарантировать, что будущие системы будут безопасными.