Министерство государственной безопасности Китая предупредило о рисках, которые несут в себе технологии искусственного интеллекта, особенно о тех, которые могут угрожать национальной безопасности.
Министерство государственной безопасности заявило, что быстрое развитие и широкое применение искусственного интеллекта, такого как ChatGPT, создает проблемы, которые «в ближайшем будущем могут коренным образом изменить существующий ландшафт национальной безопасности».
В статье, опубликованной в четверг на сайте WeChat, министерство перечислило в качестве потенциальных рисков утечку данных, кибератаки и манипулирование данными, а также влияние технологии на экономику и вооруженные силы.
Ранее в этом году министр государственной безопасности Чэнь Исинь предупредил о проблемах кибербезопасности, которые могут угрожать инфраструктуре Китая. В статье, опубликованной в сентябре, он также писал, что такие технологии, как искусственный интеллект, привнесли новые и более серьезные неопределенности в обеспечение безопасности.
В прошлом месяце на форуме «Пояс и путь» Пекин предложил рамочную программу по искусственному интеллекту, призвав к обеспечению равных прав для всех стран. В документе, получившем название «Глобальная инициатива по управлению искусственным интеллектом», отмечаются огромные возможности искусственного интеллекта, но также и его «непредсказуемые риски и сложные проблемы».
Управление искусственным интеллектом входит в число областей, в которых Пекин и Вашингтон обязались сотрудничать, говорится в заявлении Китая по итогам саммита Си Цзиньпина и Джо Байдена, состоявшегося в среду в Сан-Франциско.
В статье министерство государственной безопасности Китая предупредило о рисках утечки данных, отметив, что для обучения и тренировки ИИ требуются огромные объемы данных, которые могут содержать много конфиденциальной информации. По мнению министерства, любое неправомерное использование информации или утечка могут представлять серьезную угрозу для частной жизни людей и национальной безопасности.
Министерство также предупредило о кибератаках, в которых, по мнению ведомства, может помочь искусственный интеллект, и хакеры смогут «легко запускать целенаправленные и хорошо скрытые атаки на конкретные цели».
Кроме того, министерство указало на риск «отравления данных» — «добавления вредоносных данных в обучающие данные ИИ». По мнению министерства, это может нарушить нормальную работу моделей анализа данных, в качестве примера приводится нарушение работы интеллектуальной автомобильной техники, что может привести к авариям. Другой пример — таргетирование пропагандистских кампаний, в результате которого «негативные мысли» могут незаметно проникнуть в общественное мнение.
Кроме того, в статье выражалась обеспокоенность перспективой того, что в некоторых областях технологии искусственного интеллекта заменят человека, что может повлиять на экономическую, социальную и политическую безопасность страны. По мнению министерства, эти технологии могут быть использованы для создания паники на финансовых рынках путем манипулирования информацией.
По мнению министерства, существует риск использования ИИ в смертоносном автономном оружии, а также для повышения целенаправленности и точности военных действий за счет объединения сетей, лиц, принимающих решения, и операторов.
В министерстве отметили, что необходимо ужесточить законы и правила в отношении этой технологии, а также развивать глобальное управление и пресекать преступления, связанные с ИИ.
«Устранение рисков, связанных с ИИ, и использование стратегической инициативы развития ИИ для эффективной защиты национальной безопасности — важный вопрос глобального управления национальной безопасностью», — говорится в статье.
В ней содержится призыв к укреплению «стратегического доверия» и координации в области развития и безопасности ИИ, а также к «взвешенному» реагированию на риски и вызовы.