Инструменты для обнаружения дипфейков, разрабатываемые для борьбы с растущей угрозой дипфейков — реалистичного ложного контента, должны использовать обучающие наборы данных, включающие более темные оттенки кожи, чтобы избежать предвзятости, предупредили эксперты.
Большинство детекторов дипфейков основаны на стратегии обучения, которая в значительной степени зависит от набора данных, используемого для его обучения. Затем он использует ИИ для обнаружения признаков, которые могут быть неясны для человеческого глаза.
К этому может относиться мониторинг кровотока и сердечного ритма. Однако эти методы обнаружения не всегда работают на людях с более темным цветом кожи, а если обучающие наборы не содержат всех рас, акцентов, полов, возрастов и оттенков кожи, они подвержены предубеждениям, предупредили эксперты.
За последние пару лет эксперты по ИИ и обнаружению дипфейков выражали обеспокоенность по поводу того, что предубеждение встраивается в эти системы.
Риджул Гупта, эксперт по синтетическим медиа, соучредитель и генеральный директор DeepMedia, которая использует ИИ и машинное обучение для оценки визуальных и аудио сигналов на предмет признаков синтетического манипулирования, сказал: «Наборы данных всегда сильно смещены в сторону белых мужчин среднего возраста, и этот вид технологий всегда негативно влияет на маргинализированные сообщества».
«В DeepMedia вместо того, чтобы быть слепыми к расе, наши детекторы и наша технология фактически ищут возраст, расу и пол человека. Поэтому, когда наши детекторы проверяют, было ли видео манипулировано или нет, они уже видели большое количество образцов разного возраста и рас».
Гупта добавил, что инструменты обнаружения дипфейков, использующие визуальные подсказки, такие как обнаружение кровотока и сердечного ритма, могут иметь «скрытые предубеждения в отношении людей со светлым цветом кожи, потому что из видеопотока с более темным цветом кожи гораздо сложнее извлечь сердечный ритм».
«Врожденное предубеждение» в этих инструментах означает, что они будут хуже работать на меньшинствах.
«Мы увидим конечный результат — увеличение мошенничества, обмана и дезинформации с использованием дипфейков, которое будет сильно нацелено и сфокусировано на маргинализированных обществах», — говорит Гупта.
Мутали Нконде, советник по политике ИИ и генеральный директор и основатель AI for the People, сказала, что опасения касаются более широких исключений, с которыми сталкиваются меньшинства.
«Если у нас есть технология, которая поддерживает безопасность некоторых людей, она действительно должна поддерживать безопасность всех, и, к сожалению, технология еще не совсем готова», — сказала Нконде.
«Мы хорошо осведомлены о проблемах, которые возникают при распознавании лиц с темным цветом кожи, но широкая общественность не понимает, что только потому, что технология имеет новое название, функцию или использование, это не значит, что технические достижения продвинулись.
Это также не означает, что в этой области появилось новое мышление. И поскольку нигде в мире нет нормативно-правовой базы, которая гласит: «Вы не можете продавать технологию, которая не работает», скрытое предубеждение продолжает воспроизводиться в новых технологиях».
Эллис Монк, профессор социологии Гарвардского университета и приглашенный научный сотрудник Google, разработал шкалу оттенков кожи Монка. Это альтернативная шкала, которая является более инклюзивной, чем стандартная в технологической отрасли, и обеспечит более широкий спектр оттенков кожи, которые могут использоваться для наборов данных и моделей машинного обучения.
Монк сказал: «Люди с более темным цветом кожи были исключены из разработки этих различных форм технологий с самого начала.
Необходимо создать новые наборы данных, которые имеют большее покрытие, большую репрезентативность с точки зрения оттенка кожи, и это означает, что вам нужна какая-то стандартизированная, последовательная и более репрезентативная шкала, чем предыдущие».