Раскрыта сеть криптоботов, работающая на основе ChatGPT, на платформе X

X, принадлежащая Илону Маску социальная сеть, ранее известная как Twitter, столкнулась с серьезной проблемой фейковых аккаунтов. Распространение ботов в социальной сети признал сам Маск, указав на это как на основную причину, по которой он первоначально пытался отказаться от покупки компании.

И новое исследование Обсерватории социальных медиа Индианского университета в Блумингтоне дает хорошее представление об одной такой конкретной бот-сети, развернутой в X. Профессор Филиппо Менцер вместе со студентом Кай-Чен Яном недавно опубликовали исследование о ботнете под названием Fox8, согласно Wired, который первым сообщил об этом исследовании.

Исследователи обнаружили сеть по меньшей мере 1140 фейковых аккаунтов Twitter в мае этого года, которые постоянно публиковали твиты со ссылками на ряд спамных малоизвестных онлайн «новостных» сайтов, которые просто перепечатывали контент, скопированный с легитимных ресурсов.

Подавляющее большинство сообщений, опубликованных этой сетью бот-аккаунтов, были связаны с криптовалютой и часто включали хештеги, такие как #bitcoin, #crypto и #web3. Аккаунты также часто ретвитили или отвечали популярным крипто-пользователям Twitter, таким как @WatcherGuru, @crypto и @ForbesCrypto.

Как сети более чем из тысячи аккаунтов удавалось публиковать столько контента? Она использовала ИИ, а именно ChatGPT, чтобы автоматизировать публикуемый контент. Цель этих сгенерированных ИИ сообщений, похоже, заключалась в том, чтобы заспамить Twitter как можно большим количеством ссылок, связанных с криптовалютой, чтобы охватить как можно больше реальных пользователей в надежде, что они перейдут по URL.

По данным Wired, аккаунты в конечном итоге были заблокированы X после публикации исследования в июле. Менцер говорит, что его исследовательская группа ранее информировала Twitter о таких ботнетах, но прекратила это делать после покупки Маском, поскольку обнаружила, что компания больше «не реагирует».

Хотя инструменты ИИ, такие как ChatGPT, помогли владельцу ботнета генерировать контент для тысяч аккаунтов, в конечном итоге это стало причиной его провала.

Согласно опубликованному исследованию, ученые заметили со временем определенную закономерность в этих аккаунтах: они публиковали твиты, начиная с фразы «как ИИ модель языка». Пользователи ChatGPT знакомы с этой фразой, так как ИИ-помощник часто добавляет ее в любой вывод, который он считает потенциально проблематичным ввиду того, что он, ну, просто ИИ языковая модель.

Исследователи указали, что если бы не эта «неаккуратная» ошибка, ботнет потенциально мог бы продолжать действовать незамеченным.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *