Как кибермошенники пытаются заставить инструменты искусственного интеллекта приносить прибыль

Сторонники искусственного интеллекта утверждают, что его возможности безграничны. Однако кибермошенники также могут использовать его в своих интересах.

Аналитики объяснили агентству Франс Пресс (AFP), как эта технология может повысить риск от интернет-преступлений.

Фишинговые письма.

Чат-боты являются наиболее известными из всех инструментов искусственного интеллекта благодаря огромному успеху ChatGPT и многих последующих, в том числе и Bard от Google.

Фишинг — самый распространенный вид кибермошенничества, когда преступники, выдающие себя за компанию или частное лицо, рассылают по электронной почте партии писем, содержащих ссылки на поддельные сайты или вредоносные программы.

Эти два мира уже начали сталкиваться: на форумах киберпреступники обмениваются советами о том, как лучше всего заставить чат-боты генерировать фишинговые письма.

Крупные игроки запрещают пользователям генерировать такие письма, поэтому разработчики создают программы, направленные на создание фишинговых сообщений, — в частности, такие, как FraudGPT и WormGPT.

Эффективность этих инструментов еще предстоит проверить, и Жером Биллуа из консалтинговой компании Wavestone заявил AFP: «Мы находимся только в самом начале пути».

По мнению экспертов, главное умение чат-ботов для фишинговых мошенников — генерировать достаточно понятный текст.

Одним из признаков фишингового письма уже давно является нечеткая орфография и разрозненная пунктуация.

«ИИ ускоряет темп атак», — говорит Биллуа.

По данным ФБР, в прошлом году оно получило 300 497 жалоб на фишинговые атаки, а ущерб от них составил 52 млн. долл.

Атака клонов.

В начале этого года мать из США Дженнифер ДеСтефано рассказала, как ей позвонила дочь с просьбой о помощи, а затем похититель предложил заплатить выкуп в размере 1 млн. долл.

«Я ни на секунду не сомневалась, что это она, — рассказала она местным СМИ.

Только голос был имитацией, созданной искусственным интеллектом, и ДеСтефано быстро раскрыла обман.

Однако это указывает на опасность того, что в будущем при телефонных и видеозвонках будут появляться поддельные имитации близких людей или коллег, что может стать золотой жилой для мошенников.

Записав всего несколько секунд голоса человека, онлайн-инструменты могут создать имитацию, способную обмануть сотрудников или друзей.

Жером Саиз, основатель французской консалтинговой компании OPFOR Intelligence, считает, что «целая индустрия мелких мошенников», уже умеющих вымогать данные кредитных карт с помощью текстовых сообщений, скорее всего, начнет использовать подобные инструменты.

Он сказал AFP, что такие мошенники часто молоды и умеют обращаться с техническими средствами.

Руководство по программированию.

Одним из самых известных талантов чат-ботов, таких как ChatGPT, является их способность генерировать пригодный для использования компьютерный код.

Мошенники могут использовать эти навыки для создания вредоносных программ, способных заблокировать компьютер жертвы или получить доступ к файлам или учетным записям.

В Интернете можно встретить утверждения о том, что новые чат-боты, созданные по индивидуальному заказу, способны выполнять подобные операции, однако убедительных доказательств этому найти сложно.

Чат-боты, конечно, могут выявлять недостатки в существующем коде и даже генерировать вредоносный код, но они не могут исполнить его напрямую.

По словам Саиза, он считает, что ИИ может помочь мошенникам, не обладающим достаточным талантом, стать более умелыми — своего рода наставник по программированию.

«Но тот, кто начинает с нуля, не сможет заставить ChatGPT кодировать для него вредоносное ПО», — сказал он.

Саиз, к которому обычно обращаются, когда что-то серьезное идет не так, сказал, что не видел никаких доказательств того, что в его делах за последний год был задействован искусственный интеллект.

Шон Сурбер из американской компании Tanium, специализирующейся на кибербезопасности, столь же осторожен.

«Большая часть опасений по поводу того, как генеративный ИИ повлияет на риски для предприятий, основана на страхе перед неизвестностью, а не на конкретных угрозах», — сказал он.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *