Появление таких мощных инструментов генеративного ИИ, как ChatGPT, называют «моментом iPhone» этого поколения. По имеющимся данным, в марте посещаемость сайта OpenAI, на котором можно опробовать ChatGPT, достигла 847 млн. уникальных посетителей в месяц. На фоне такого взрыва популярности уровень внимания к генеративному искусственному интеллекту резко возрос, и несколько стран приняли оперативные меры по защите потребителей.
В апреле Италия стала первой западной страной, заблокировавшей ChatGPT по соображениям конфиденциальности, но спустя четыре недели отменила этот запрет. Другие страны G7 рассматривают возможность выработки скоординированного подхода к регулированию.
Осенью в Великобритании пройдет первый глобальный саммит по регулированию ИИ. Премьер-министр страны Риши Сунак надеется, что страна сможет способствовать созданию «оградительных барьеров» для ИИ. Заявленная цель — обеспечить «безопасную и ответственную разработку и внедрение ИИ».
Регулирование, несомненно, имеет благие намерения. Очевидно, что многие страны осознают риски, которые несет в себе искусственный интеллект. Однако за всеми этими разговорами о безопасности, вероятно, скрывается более глубокая проблема: предвзятость ИИ.
Хотя термин «предвзятость ИИ» может показаться туманным, его легко определить. Известная также как «предвзятость алгоритмов», предвзятость ИИ возникает, когда человеческие предубеждения проникают в наборы данных, на которых обучаются модели ИИ. Эти данные и последующие модели ИИ отражают любую предвзятость выборки, предвзятость подтверждения и человеческие предубеждения (например, в отношении пола, возраста, национальности, расы) и ставят под сомнение независимость и точность любых результатов, полученных с помощью технологии ИИ.
По мере того как генеративный ИИ становится все более совершенным, оказывая на общество такое влияние, какого не было раньше, борьба с предвзятостью ИИ становится как никогда актуальной. Эта технология все чаще используется для решения таких задач, как распознавание лиц, кредитный скоринг и оценка риска преступлений. Очевидно, что при таких чувствительных результатах точность имеет первостепенное значение.
Примеры предвзятости ИИ уже были отмечены во многих случаях. Когда модель глубокого обучения Dall-E 2 компании OpenAI, используемую для создания художественных произведений, попросили создать образ основателя технологической компании из списка Fortune 500, на предоставленных ею фотографиях были изображены в основном белые и мужчины. На вопрос о том, повлияла ли известная блюзовая певица Бесси Смит на госпел-певицу Махалию Джексон, ChatGPT не смог ответить без дополнительных подсказок, что вызывает сомнения в его знаниях о цветных людях в популярной культуре.
Исследование, проведенное в 2021 году в области ипотечного кредитования, показало, что модели ИИ, предназначенные для определения одобрения или отказа, не давали надежных предложений по выдаче кредитов заявителям из числа меньшинств. Эти случаи доказывают, что предвзятость ИИ может искажать расовую и гендерную принадлежность — с потенциально серьезными последствиями для пользователей.
ИИ, выдающий оскорбительные результаты, может быть связан со способом обучения ИИ и набором данных, на которых он построен. Если данные чрезмерно отражают или недоотражают определенную группу населения, ИИ будет повторять эту предвзятость, генерируя еще более предвзятые данные.
По этой причине важно, чтобы любое государственное регулирование не рассматривало искусственный интеллект как опасный по своей сути. Напротив, любая опасность, которой он обладает, в значительной степени зависит от данных, на которых он обучается. Если компании хотят использовать потенциал ИИ, они должны обеспечить надежность и всеохватность данных, на которых он обучается.
Для этого приоритетной задачей должно стать расширение доступа к данным организации для всех заинтересованных сторон, как внутренних, так и внешних. Современные базы данных играют здесь огромную роль, поскольку они способны управлять огромными объемами пользовательских данных, как структурированных, так и полуструктурированных, и обладают возможностями быстрого обнаружения, реагирования, редактирования и изменения данных в случае обнаружения какой-либо предвзятости. Такая наглядность и управляемость больших массивов данных означает, что риск проникновения необъективных данных незамеченным меньше.
Кроме того, организации должны обучать специалистов по обработке данных более эффективному анализу данных, внедряя лучшие практики сбора и очистки данных. Еще один шаг вперед — алгоритмы подготовки данных должны быть «открытыми» и доступными как можно большему числу специалистов по обработке данных, чтобы обеспечить выборку данных для более разнообразных групп людей и выявить присущие им предубеждения. Подобно тому, как современное программное обеспечение часто имеет «открытый исходный код», так и соответствующие данные должны быть открытыми.
Организации должны постоянно проявлять бдительность и понимать, что это не одноразовое действие, которое необходимо выполнить перед запуском продукта или услуги в производство. Постоянная проблема предвзятости ИИ заставляет предприятия искать способы применения методов, используемых в других отраслях, для обеспечения общей передовой практики.
Тесты «слепой дегустации», заимствованные из индустрии продуктов питания и напитков, тактика «красной команды» и «синей команды» в сфере кибербезопасности или концепция отслеживания, используемая в атомной энергетике, — все это может стать ценной основой для организаций в борьбе с предвзятостью ИИ. Эта работа поможет предприятиям понять модели ИИ, оценить диапазон возможных будущих результатов и завоевать достаточное доверие к этим сложным и развивающимся системам.
В предыдущие десятилетия разговоры о «регулировании ИИ» были, пожалуй, забеганием вперед. Как можно регулировать то, влияние чего на общество неясно? Сто лет назад никто и не мечтал о регулировании курения, поскольку не было известно, что оно опасно. Точно так же и искусственный интеллект не находился под серьезной угрозой регулирования — любое ощущение его опасности сводилось к фантастическим фильмам, не имеющим под собой никакой реальной основы.
Однако достижения в области генеративного ИИ, а также в области искусственного интеллекта общего назначения изменили ситуацию. Правительства некоторых стран, похоже, в унисон работают над регулированием ИИ, в то время как другие, как ни парадоксально, претендуют на роль главных регуляторов ИИ.
На фоне этой шумихи крайне важно не допустить чрезмерной политизации предвзятости ИИ, а рассматривать ее как проблему общества, не зависящую от политических взглядов. Во всем мире правительства, ученые, бизнесмены и ученые должны объединиться для ее решения.