Принадлежащая Google американская компания по кибербезопасности Mandiant заявила в четверг, что за последние годы наблюдается растущее использование искусственного интеллекта (ИИ) для проведения манипулятивных информационных кампаний онлайн, хотя использование этой технологии в других цифровых вмешательствах пока было ограниченным.
Исследователи компании, базирующейся в Вирджинии, обнаружили «многочисленные случаи» с 2019 года, когда контент, сгенерированный ИИ, такой как сфабрикованные фотографии профилей, использовался в информационных кампаниях с политической мотивацией онлайн.
К таким кампаниям относились кампании групп, связанных с правительствами России, Китая, Ирана, Эфиопии, Индонезии, Кубы, Аргентины, Мексики, Эквадора и Сальвадора, говорится в докладе.
Это происходит на фоне недавнего бума генеративных ИИ-моделей, таких как ChatGPT, которые значительно упростили создание убедительных поддельных видео, изображений, текстов и компьютерного кода. Сотрудники служб безопасности предупредили о том, что такие модели могут использоваться киберпреступниками.
Исследователи Mandiant заявили, что генеративный ИИ позволит группам с ограниченными ресурсами производить контент более высокого качества для информационных кампаний в больших масштабах.
Например, информационная кампания в поддержку Китая Dragonbridge «экспоненциально» расширилась на 30 социальных платформах и 10 разных языках с тех пор, как она впервые начала целиться в протестующих за демократию в Гонконге в 2019 году, сказала Сандра Джойс, вице-президент Mandiant Intelligence.
Тем не менее, влияние таких кампаний было ограниченным. «С точки зрения эффективности там не очень много побед», — сказала она. «Они действительно пока не изменили ход ландшафта угроз».
Китай ранее отрицал обвинения США в причастности к таким информационным кампаниям.
Mandiant, которая помогает государственным и частным организациям реагировать на цифровые взломы, пока не наблюдала значительной роли ИИ в угрозах со стороны России, Ирана, Китая или Северной Кореи. Ожидается, что использование ИИ для цифровых вторжений в ближайшее время останется на низком уровне, считают исследователи.
«Пока что мы не сталкивались ни с одним инцидентом, где ИИ сыграл бы ключевую роль», — сказала Джойс. «Они действительно не были привнесены ни в какое практическое использование, которое перевешивало бы то, что могло быть сделано с обычными инструментами, которые мы видели».
Но она добавила: «Мы можем быть очень уверены, что со временем эта проблема будет обостряться».