В новом отчете от Forrester предупреждается, что предприятиям следует быть начеку по поводу пяти мошеннических схем с дипфейками, которые могут нанести большой ущерб. Мошеннические схемы с дипфейками включают мошенничество, манипуляцию ценами на акции, репутацию и бренд, эксперименты сотрудников и HR, а также усиление.
Дипфейк (deepfake) — это возможность использования технологии искусственного интеллекта для создания синтетического видео и аудио контента, который может быть использован для выдачи себя за другого человека, сказал автор отчета Джефф Поллард, вице-президент и главный аналитик Forrester, в интервью TechRepublic.
Разница между дипфейками и генеративным искусственным интеллектом заключается в том, что последнему вы задаете вопрос, а он вероятно возвращает ответ, сказал Поллард. Дипфейк «…использует искусственный интеллект… но он предназначен для создания видео или аудио контента, а не для письменных ответов или реакций, которые возвращает большая языковая модель».
Мошенничества с использованием дипфейков, нацеленные на предприятия
Вот пять мошеннических схем с дипфейками, описанных Forrester.
Мошенничество.
Технологии дипфейков могут клонировать лица и голоса, и эти методы используются для аутентификации и авторизации, согласно отчету Forrester.
«Использование технологии дипфейков для клонирования и подражания отдельному лицу приведет к мошенническим финансовым операциям, пострадают как отдельные лица, так и предприятия», отмечено в отчете.
Одним из примеров мошенничества может быть подражание высшему руководству для авторизации переводов на счета преступников.
«Такая ситуация уже существует сегодня и скоро станет все более распространенной», предупреждает отчет.
Поллард назвал это наиболее распространенным типом дипфейков «…потому что это имеет самый короткий путь к монетизации».
Манипуляция ценами на акции.
События, привлекающие внимание СМИ, могут вызвать колебания цен на акции, например, когда известный руководитель уходит из публичной компании. Дипфейк такого типа объявления мог бы вызвать кратковременное снижение цен на акции, а это может повлиять на оплату труда сотрудников и возможность компании получить финансирование, говорится в отчете Forrester.
Репутация и бренд.
Очень легко создать фальшивый пост в социальных сетях «…высокопоставленного руководителя, использующего оскорбительный язык, оскорбляющего клиентов, обвиняющего партнеров и придумывающего информацию о ваших продуктах или услугах», сказал Поллард. Эта ситуация становится кошмаром для советов директоров и команд по связям с общественностью, и отчет отмечает, что «…сегодня очень легко создать эту ситуацию искусственно».
Это может нанести ущерб бренду компании, добавил Поллард, сказав, что «…практически невозможно предотвратить это».
Эксперименты сотрудников и HR.
Еще одна «поразительная» ситуация возникает, когда один сотрудник создает дипфейк, используя неконсенсуальный порнографический контент с использованием облика другого сотрудника и распространяет его. Это может нанести ущерб психическому здоровью этого сотрудника, угрожать его карьере и «…почти наверняка привести к судебному разбирательству», говорится в отчете.
Мотивацией является то, что кто-то считает это смешным или ищет мести, сказал Поллард. Это мошенничество больше всего пугает компании, потому что это «…самая тревожная и коварная схема в долгосрочной перспективе, потому что это самое сложное для предотвращения», сказал он. «Это противоречит любому обычному поведению сотрудников».
Усиление.
Дипфейк может использоваться для распространения другого дипфейк-контента. Forrester сравнивает это с ботами, которые распространяют контент, «…но вместо того, чтобы давать этим ботам имена пользователей и истории публикаций, мы даем им лица и эмоции», говорится в отчете. Эти дипфейки также могут использоваться для создания реакций на первоначальный дипфейк, который был создан для нанесения ущерба бренду компании, так что его могут увидеть более широкие аудитории.
Лучшие средства защиты организаций от дипфейков
Поллард подчеркнул, что нельзя предотвратить дипфейки, которые могут быть легко созданы, например, скачиванием подкаста и клонированием голоса человека, чтобы заставить его сказать то, чего он на самом деле не сказал.
«Есть пошаговые инструкции для каждого, чтобы сделать это (возможность клонирования голоса человека) технически», отметил он. Но одной из защитных мер против этого «…является то, чтобы не говорить и не делать ужасные вещи».
Кроме того, если компания имеет историю надежности, аутентичности, надежности и прозрачности, «…будет трудно поверить, что вы вдруг такой ужасный, как может показаться в видео», сказал он. «Но если у вас есть история безразличия к конфиденциальности, не сложно создать видео сказавшего что-то негативное руководителя».
Также есть инструменты, которые предлагают целостность, проверку и прослеживаемость, чтобы указать на то, что что-то не является синтетическим, добавил Поллард, такие как FakeCatcher от Intel. «Он анализирует… кровоток в пикселях видео, чтобы определить, что думал человек, когда это было записано».
Но Поллард выразил пессимизм относительно инструментов обнаружения, сказав, что они «…развиваются, а затем противники находят способ их обойти, и тогда они должны снова развиваться. Это вечная история в кибербезопасности».
Он подчеркнул, что дипфейки не исчезнут, поэтому организации должны мыслить превентивно о возможности стать целью. Дипфейк случится, сказал он.
«Не думайте об этом впервые, когда это произойдет. Вы должны репетировать это и понимать, чтобы знать, что делать, когда это случится», сказал он. «Не имеет значения, правда это или нет — важно, достаточно ли в это верят, чтобы я мог поделиться этим».
И последнее напоминание от Полларда: «Это интернет. Все живет вечно».