США, Великобритания и более десятка других стран представили в воскресенье первое подробное международное соглашение о том, как обезопасить искусственный интеллект от недобросовестных участников, в котором содержится призыв к компаниям создавать системы искусственного интеллекта, «безопасные по замыслу».
В 20-страничном документе, представленном в воскресенье, 18 стран согласились с тем, что компании, разрабатывающие и использующие искусственный интеллект, должны разрабатывать и внедрять его таким образом, чтобы обезопасить клиентов и широкую общественность от неправомерного использования.
Соглашение не имеет обязательной силы и содержит в основном общие рекомендации, такие как мониторинг систем искусственного интеллекта на предмет злоупотреблений, защита данных от фальсификации и проверка поставщиков программного обеспечения.
Тем не менее, директор Агентства по кибербезопасности и защите инфраструктуры США Джен Истерли отметила важность того, что так много стран присоединились к идее о том, что в системах искусственного интеллекта безопасность должна стоять на первом месте.
«Это первый случай, когда мы видим подтверждение того, что эти технологии должны быть не просто крутыми функциями и как быстро мы можем вывести их на рынок или как мы можем конкурировать, чтобы снизить стоимость», — сказала Истерли агентству Reuters, отметив, что эти рекомендации представляют собой «соглашение о том, что самое важное, что должно быть сделано на этапе проектирования, — это безопасность».
Соглашение является последним в ряду инициатив — лишь немногие из которых имеют силу — правительств разных стран мира, направленных на развитие искусственного интеллекта, вес которого все больше ощущается в промышленности и обществе в целом.
Помимо США и Великобритании, к числу 18 стран, подписавших новые рекомендации, относятся Германия, Италия, Чехия, Эстония, Польша, Австралия, Чили, Израиль, Нигерия и Сингапур.
В документе рассматриваются вопросы защиты технологий искусственного интеллекта от хакеров и содержатся такие рекомендации, как выпуск моделей только после соответствующего тестирования на безопасность.
При этом не затрагиваются острые вопросы, связанные с целесообразностью использования ИИ, а также с тем, как собираются данные, на основе которых строятся эти модели.
Развитие искусственного интеллекта породило множество опасений, в том числе страх, что он может быть использован для нарушения демократического процесса, активизации мошенничества, привести к резкому сокращению рабочих мест и т.д.
Европа опережает США в области регулирования ИИ: ее законодатели разрабатывают правила использования ИИ. Франция, Германия и Италия недавно достигли соглашения по регулированию искусственного интеллекта, которое поддерживает «обязательное саморегулирование через кодексы поведения» для так называемых базовых моделей ИИ, которые предназначены для получения широкого спектра результатов.
Администрация Байдена оказывала давление на законодателей в отношении регулирования ИИ, однако поляризованный Конгресс США не добился значительных успехов в принятии эффективных нормативных актов.
В октябре Белый дом издал новый указ, направленный на снижение рисков, связанных с ИИ, для потребителей, работников и представителей меньшинств, а также на укрепление национальной безопасности.