Хакеры и пропагандисты используют искусственный интеллект (ИИ) для создания вредоносного программного обеспечения, составления убедительных фишинговых электронных писем и распространения дезинформации в сети, заявил Рейтер глава канадского центра кибербезопасности Сами Хури. Это является ранним подтверждением того, что технологическая революция, охватывающая Силиконовую долину, также была принята киберпреступниками.
В интервью на этой неделе Хури сообщил, что его агентство заметило использование ИИ «в фишинговых электронных письмах, или при составлении электронных писем более целенаправленным образом, во вредоносном коде и дезинформации».
Хури не предоставил деталей или доказательств, но его утверждение о том, что киберпреступники уже используют ИИ, придает срочность обеспокоенности использованием этой новой технологии мошенниками.
В последние месяцы несколько групп кибербезопасности опубликовали отчеты, предупреждающие о гипотетических рисках ИИ, особенно быстро развивающихся языковых программ, известных как большие языковые модели (LLM), которые используют огромные объемы текста для создания убедительного диалога, документов и другого.
В марте Европол, организация полиции Европы, опубликовала отчет, в котором говорится, что модели, такие как ChatGPT от OpenAI, позволили «подражать организации или отдельному лицу в высокой степени реалистичным образом, даже имея только базовое знание английского языка». В том же месяце Национальный центр кибербезопасности Великобритании заявил в своем блоге, что существует риск того, что преступники «могут использовать LLM для помощи в кибератаках, превышающих их текущие возможности».
Исследователи кибербезопасности продемонстрировали различные потенциально вредоносные сценарии использования, и теперь говорят, что начинают замечать подозрительный контент, созданный ИИ, в свободном доступе. На прошлой неделе бывший хакер заявил, что обнаружил LLM, обученную на вредоносном материале, и попросил ее составить убедительную попытку обмануть кого-то, чтобы совершить денежный перевод.
LLM ответила электронным письмом из трех абзацев, попросив свою жертву о помощи со срочным счетом.
«Я понимаю, что это может быть неожиданно», — сказала LLM, — «но эта оплата крайне важна и должна быть сделана в течение следующих 24 часов».
Хури сказал, что хотя использование ИИ для составления вредоносного кода все еще находится на ранних стадиях — «потому что требуется много времени для написания хорошего эксплойта» — обеспокоенность заключается в том, что модели ИИ развиваются так быстро, что сложно представить их вредоносный потенциал до их выпуска в свободный доступ.
«Кто знает, что нас ожидает за углом», — сказал он.