Угроза искусственного интеллекта требует нового подхода к разработке систем безопасности — американский чиновник

Потенциальная угроза, связанная с быстрым развитием искусственного интеллекта (ИИ), означает, что средства защиты должны быть встроены в системы с самого начала, а не добавлены позже, заявил в понедельник высокопоставленный американский чиновник.

«Мы привыкли к тому, что технологические продукты выходят с конвейера полными уязвимостей, а затем от потребителей ожидают исправления этих уязвимостей. Мы не можем жить в таком мире в случае с искусственным интеллектом», — заявила Джен Истерли, директор Агентства по кибербезопасности и защите инфраструктуры США.

«Он слишком мощный и слишком быстро развивается», — сказала она в телефонном интервью после переговоров в Оттаве с Сами Хури, главой канадского Центра кибербезопасности.

Истерли выступила в тот же день, когда ведомства 18 стран, включая США, одобрили новые разработанные в Великобритании рекомендации по кибербезопасности ИИ, в которых основное внимание уделяется безопасному проектированию, разработке, развертыванию и обслуживанию.

«Мы должны рассматривать вопросы безопасности на протяжении всего жизненного цикла возможностей ИИ», — сказал Хури.

Ранее в этом месяце ведущие разработчики ИИ договорились о сотрудничестве с правительствами для тестирования новых передовых моделей перед их выпуском, чтобы помочь управлять рисками, связанными с быстро развивающейся технологией.

«Я думаю, что мы сделали все от нас зависящее на данный момент, чтобы помочь объединиться государствам по всему миру и технологическим компаниям, чтобы определить с технической точки зрения, как создавать эти технологии как можно более безопасными и надежными», — сказала Истерли.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *