Несколько лет назад дипфейки казались новой технологией, создание которой требовало серьезной вычислительной мощности. Сегодня дипфейки повсеместны и могут быть использованы в целях дезинформации, хакинга и других незаконных целей.
Лаборатория Intel разработала технологию обнаружения дипфейков в реальном времени для противодействия этой растущей проблеме. Илке Демир, старший исследователь в Intel, объясняет технологию дипфейков, методы обнаружения Intel и этические соображения, связанные с разработкой и внедрением таких инструментов.
Дипфейки — это видео, речь или изображения, где действующее лицо или действие не реальные, а созданы искусственным интеллектом (ИИ). Для создания дипфейков используются сложные архитектуры глубокого обучения, такие как генеративные-состязательные сети, вариационные автоэнкодеры и другие модели искусственного интеллекта, чтобы создавать высокореалистичный и правдоподобный контент. Эти модели могут генерировать искусственные личности, синхронизировать речь с видео и даже преобразовывать текст в изображения, что делает сложным отличие реального контента от фейкового.
Термин «дипфейк» иногда применяется к подлинному контенту, который был изменен, например, в 2019 году видео с бывшим спикером Палаты представителей Нэнси Пелоси, было подделано для придания ей внешности в состоянии опьянения.
Команда Демира исследует компьютерные дипфейки, которые представляют собой синтетический контент, созданный машинами. «Причина, по которой это называется дипфейк, заключается в использовании сложной архитектуры глубокого обучения в генеративном искусственном интеллекте для создания всего этого контента», говорит он.
Киберпреступники и другие злоумышленники часто злоупотребляют технологией дипфейков. Некоторые примеры использования включают политическую дезинформацию, контент для взрослых с участием знаменитостей или лиц без их согласия, манипуляции рынка и подделку для финансовой выгоды. Эти отрицательные последствия подчеркивают необходимость эффективных методов обнаружения дипфейков.
Лаборатория Intel разработала одну из первых в мире платформ обнаружения дипфейков в реальном времени. Вместо поиска артефактов подделки, технология сосредотачивается на обнаружении реального контента, такого как пульс. С использованием техники фотоплетизмографии, система обнаружения анализирует изменения цвета в венах, вызванные содержанием кислорода, что поддается вычислениям, и технология определяет, является ли личность настоящим человеком или поддельной.
«Мы стараемся определить, что является реальным и подлинным. Пульс — один из сигналов», — говорит Демир. «Когда ваше сердце перекачивает кровь, она проходит через ваши вены, и вены меняют цвет из-за содержания кислорода, эти изменения цвета невидимы для нашего глаза; я не могу просто посмотреть на это видео и увидеть ваш пульс. Но эти изменения цвета вычислительно видимы.»
Технология обнаружения дипфейков от Intel внедряется в различные секторы и платформы, включая инструменты социальных медиа, информационные агентства, телекомпании, инструменты создания контента, стартапы и некоммерческие организации. Интегрируя эту технологию в свои рабочие процессы, эти организации могут более эффективно выявлять и сдерживать распространение дипфейков и дезинформации.
Несмотря на потенциал злоупотребления, дипфейковая технология имеет законные применения. Одним из ранних применений было создание аватаров для более точного представления людей в цифровых средах. Демир ссылается на конкретный случай использования под названием «Мое лицо, мой выбор», которое использует дипфейки для повышения конфиденциальности в онлайн-платформах.
Простыми словами, такой подход позволяет людям контролировать свой облик на онлайн-фотографиях, заменяя свое лицо на отличающийся дипфейк, если они не хотят чтобы их узнали. Эти возможности обеспечивают повышенную конфиденциальность и контроль над собственной идентичностью, что помогает противодействовать автоматическим алгоритмам распознавания лиц.
Обеспечение этического развития и внедрения технологий искусственного интеллекта является крайне важным. Команда Intel Trusted Media сотрудничает с антропологами, социальными учеными и исследователями пользователей для оценки и совершенствования технологии. Компания также имеет Совет по ответственному искусственному интеллекту, который проверяет системы искусственного интеллекта на соответствие ответственным и этическим принципам, включая потенциальные предвзятости, ограничения и возможные вредоносные случаи использования. Многопрофильный подход помогает гарантировать, что технологии искусственного интеллекта, такие как обнаружение дипфейков, служат благу людей, а не причиняют вред.
«У нас есть юристы, социальные ученые, психологи, и все они сотрудничают, чтобы выявить ограничения, обнаружить предвзятость — алгоритмическую, систематическую, связанную с данными, любую предвзятость», — говорит Демир. Команда анализирует код, чтобы найти «любые возможные случаи использования технологии, которые могут причинить вред людям».
Поскольку дипфейки становятся все более распространенными и сложными, разработка и внедрение технологий обнаружения становятся все более важными для борьбы с дезинформацией и другими вредными последствиями. Технология обнаружения дипфейков в реальном времени от Intel Labs предлагает масштабируемое и эффективное решение этой растущей проблемы.
Интеграция этических соображений и сотрудничество с экспертами из различных областей позволяют Intel стремиться к будущему, где технологии искусственного интеллекта используются ответственно и для блага общества.