Может ли криптография C2PA стать ключом к борьбе с дезинформацией, создаваемой ИИ?

По мере распространения генеративного ИИ в сфере корпоративного программного обеспечения, на государственном и организационном уровнях по-прежнему создаются стандарты для его использования. Одним из таких стандартов является сертификация контента, сгенерированного ИИ, известная как C2PA.

C2PA существует уже два года, но в последнее время привлекла внимание по мере распространения генеративного ИИ. За последние шесть месяцев членство в организации, стоящей за C2PA, удвоилось.

Что такое C2PA?

Спецификация C2PA представляет собой открытый интернет-протокол, в котором описывается, как добавлять заявления о происхождении, также известные как утверждения, к фрагменту контента. Заявления о происхождении могут появляться в виде кнопок, по которым зрители могут узнать, был ли этот медиаконтент частично или полностью создан с помощью ИИ.

Проще говоря, данные о происхождении криптографически привязаны к фрагменту медиа, то есть любое изменение любого из них предупредит алгоритм, что подлинность медиа больше не может быть подтверждена. Вы можете подробнее узнать о том, как работает эта криптография, прочитав технические спецификации C2PA.

Этот протокол был создан Коалицией по проверке подлинности и достоверности контента, также известной как C2PA. Adobe, Arm, Intel, Microsoft и Truepic все поддерживают C2PA, которая является совместным проектом, объединяющим Инициативу подлинности контента и Project Origin.

Инициатива подлинности контента — это организация, основанная Adobe для поощрения предоставления информации о происхождении и контексте для цифровых медиа. Project Origin, созданный Microsoft и BBC, представляет собой стандартизированный подход к технологии цифрового происхождения, чтобы гарантировать, что информация, особенно новостные медиа, имеет доказуемый источник и не была изменена.

Вместе группы, составляющие C2PA, стремятся остановить дезинформацию, в частности контент, сгенерированный ИИ, который может быть ошибочно принят за подлинные фотографии и видео.

Как можно помечать контент, созданный ИИ?

В июле 2023 года правительство США и ведущие компании по ИИ выпустили добровольное соглашение о раскрытии информации, когда контент создается с помощью генеративного ИИ. Стандарт C2PA — один из возможных способов выполнить это требование. Водяные знаки и обнаружение ИИ — еще два отличительных метода, которые могут помечать компьютерногенерируемые изображения. В январе 2023 года OpenAI представила собственный ИИ-классификатор для этой цели, но затем закрыла его в июле «… из-за его низкой точности».

Тем временем, Google пытается предоставлять услуги водяных знаков вместе со своим собственным ИИ. LLM PaLM 2, размещенная на Google Cloud, сможет маркировать изображения, сгенерированные машиной, согласно заявлению гиганта технологий в мае 2023 года.

Сейчас на рынке есть несколько продуктов для обнаружения генеративного ИИ. Многие, такие как GPT Detector от Writefull, созданы организациями, которые также предоставляют инструменты генеративного ИИ для написания текстов. Они работают аналогично тому, как работают сами ИИ. GPTZero, который рекламирует себя как детектор контента ИИ для образования, описывается как «классификатор», использующий такое же распознавание шаблонов, как и обнаруживаемые им предобученные трансформерные модели генерации.

Важность водяных знаков для предотвращения вредоносного использования ИИ

Руководители компаний должны призывать своих сотрудников обращать внимание на контент, сгенерированный ИИ (который может быть помечен соответствующим образом, а может и нет), чтобы поощрять надлежащее атрибутирование и достоверную информацию. Также важно, чтобы контент, сгенерированный ИИ внутри организации, был соответствующим образом помечен.

Доктор Алессандра Сала, старший директор по искусственному интеллекту и науке о данных в Shutterstock, заявила в пресс-релизе: «Присоединение к CAI и принятие базового стандарта C2PA — естественный шаг в наших непрекращающихся усилиях по защите нашего сообщества художников и наших пользователей путем поддержки разработки систем и инфраструктуры, которые создают большую прозрачность и помогают нашим пользователям легче определять, что является творением художника, а что сгенерировано или модифицировано искусственным интеллектом».

И в конечном итоге все сводится к тому, чтобы люди не использовали эту технологию для распространения дезинформации.

«По мере широкого внедрения этой технологии люди будут ожидать информации о контентных учетных данных, которая будет прикрепленной к большинству контента, который они видят в Интернете», — сказал Энди Парсонс, старший директор инициативы подлинности контента в Adobe. «Таким образом, если к изображению не была прикреплена информация контентных учетных данных, вы, возможно, проявите дополнительную осторожность при принятии решения о доверии и распространении его».

Атрибуция контента также помогает авторам сохранить права на свои произведения

Для бизнеса обнаружение контента, сгенерированного ИИ, и маркировка собственного контента, когда это необходимо, может повысить доверие и избежать ошибочного атрибутирования. В конце концов, плагиат бывает в обе стороны. Художников и писателей, использующих генеративный ИИ для плагиата, нужно выявлять. В то же время художники и авторы, создающие оригинальные работы, должны быть уверены, что эти работы не попадут в чужие проекты, сгенерированные ИИ.

Для графических дизайнерских команд и независимых художников Adobe работает над тегом «Не обучать» в своих панелях подлинности контента в Photoshop и контенте Adobe Firefly, чтобы гарантировать, что оригинальное искусство не будет использоваться для обучения ИИ.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *