«PhotoGuard» от MIT защищает ваши изображения от злонамеренных изменений ИИ

Dall-E и Stable Diffusion были только началом. По мере распространения генеративных ИИ-систем и работы компаний над дифференциацией своих предложений от конкурентов, чат-боты во всем Интернете получают возможность редактировать изображения, а также создавать их, с участием Shutterstock и Adobe во главе. Но с этими новыми возможностями, предоставленными ИИ, приходят знакомые проблемы, такие как несанкционированное изменение или кража существующих произведений и изображений в Интернете. Техники добавления водяных знаков могут помочь смягчить последнее, тогда как новая техника «PhotoGuard», разработанная MIT CSAIL, может помочь предотвратить первое.

PhotoGuard работает путем изменения определенных пикселей в изображении таким образом, чтобы они нарушали способность ИИ понять, что это за изображение. Эти «возмущения», как их называет исследовательская группа, невидимы для человеческого глаза, но легко читаемы для машин. Метод атаки «кодировщик», для введения этих артефактов, нацелен на латентное представление целевого изображения алгоритмической модели — сложная математическую модель, описывающая положение и цвет каждого пикселя в изображении, по сути мешая ИИ понять, что он видит.

Более продвинутый и требующий больших вычислительных ресурсов метод атаки «диффузия» замаскирует изображение под другое изображение в глазах ИИ. Он определяет целевое изображение и оптимизирует возмущения в своем изображении таким образом, чтобы оно было похоже на целевое. Любые изменения, которые ИИ пытается внести в эти «иммунизированные» изображения, будут применяться к поддельным «целевым» изображениям, что приведет к созданию нереалистичного сгенерированного изображения.

«Метод атаки кодировщика заставляет модель думать, что входное изображение (для редактирования) является другим изображением (например, серым изображением)», — сказал Хади Салман, аспирант MIT. «В то время как метод атаки диффузии заставляет модель диффузии вносить изменения в какое-то целевое изображение (которое также может быть серым или случайным изображением)». Техника не является безотказной, злоумышленники могут попытаться переделать защищенное изображение, добавляя цифровой шум, обрезая или отражая изображение.

«Совместный подход, включающий разработчиков моделей, платформы социальных сетей и законодателей, представляет собой надежную защиту от несанкционированного изменения изображений. Работа над этой актуальной проблемой имеет первостепенное значение сегодня», — сказал Салман в пресс-релизе. «И хотя я рад внести свой вклад в это решение, требуется еще много работы, чтобы сделать эту защиту практичной. Компании, разрабатывающие эти модели, должны инвестировать в создание надежных средств защиты от возможных угроз, создаваемых этими ИИ-инструментами».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *