Борьба с фейковыми новостями: исследования предлагают решения с помощью машинного обучения и блокчейна

Время имеет решающее значение, поскольку поток обновлений распространяется по интернету и в социальных сетях. Члены общественности стремятся найти информацию, которой они могут доверять.

Ложная информация может привести к вредным последствиям. Новостные организации, социальные сети и правительственные организации в последние годы уделяют больше внимания проверке фактов и пометке вводящих в заблуждение постов, чтобы предоставить аудитории важный контекст.

Но как создателям контента сосредоточить свои усилия на областях, где дезинформация может нанести наибольший общественный вред? Исследования Школы менеджмента Университета Бингемтона предлагают возможные решения с помощью системы машинного обучения, а также расширенного использования технологии блокчейн.

«Скорее всего, мы будем волноваться о фейковых новостях, если они наносят вред, который влияет на читателей или аудиторию. Если люди считают, что вреда нет, они скорее поделятся дезинформацией», — говорит Ти Тран, доцент кафедры информационных систем менеджмента, который возглавлял исследование. “Вред исходит из того, действуют ли аудитории в соответствии с утверждениями из дезинформации или отказываются от надлежащих действий из-за нее. Если у нас есть систематический способ определения того, где дезинформация причинит наибольший вред, это поможет нам понять, на чем нужно сосредоточиться для смягчения последствий».

Тран недавно представил свои исследования на конференции, организованной SPIE, международной некоммерческой организацией, занимающейся продвижением исследований и технологий на основе света. В одной статье речь идет о системе машинного обучения, которая является отраслью искусственного интеллекта и информатики, использующей данные и алгоритмы для имитации способа обучения людей при постепенном повышении точности. Другая статья касалась использования блокчейна, который представляет собой тип технологии совместно используемой базы данных. Обе статьи также опубликованы в рамках журнала Disruptive Technologies in Information Sciences VII.

Исследование Трана предложило системы машинного обучения для определения масштаба, в котором контент может нанести вред аудитории, и сосредоточения на наихудших нарушителях. Примеры включают истории, которые циркулировали в разгар пандемии COVID-19, продвигающие ложные альтернативные методы лечения в противовес вакцине.

Предлагаемая система использовала бы данные и алгоритмы для выявления индикаторов дезинформации и использовала бы эти примеры для информирования и улучшения процесса обнаружения. Она также учитывала бы характеристики от пользователей с предыдущим опытом или знаниями о фейковых новостях, чтобы помочь составить индекс вреда. Индекс отражал бы серьезность возможного вреда для человека в определенных контекстах, если бы он подвергся воздействию и стал жертвой фейковых новостей.

На основе собранной информации Тран сказал, что система машинного обучения могла бы помочь смягчить последствия фейковых новостей и определить, какие сообщения могут быть наиболее пагубными, если их оставить без внимания.

«Ваш образовательный уровень или политические убеждения, среди прочего, могут играть роль в том, будете ли вы склонны доверять тому или иному сообщению с дезинформацией, и эти факторы могут быть выявлены системой машинного обучения», — говорит Тран. “Например, система может предположить, исходя из особенностей сообщения и вашей личности, фона и так далее, что вероятность того, что вы станете жертвой этого конкретного сообщения с дезинформацией, составляет 70%».

В то время как другие исследования изучали использование технологии блокчейн в качестве инструмента борьбы с фейковыми новостями, исследование Трана также расширяет предыдущие выводы, более пристально изучая приемлемость таких систем для пользователей.

«Разработанная мной исследовательская модель позволяет нам проверить различные теории, а затем доказать, какая из них является наилучшим способом убедить людей использовать что-то из блокчейна для борьбы с дезинформацией», — говорит Тран.

Тран предложил опросить 1000 человек из двух групп: борцы с фейковыми новостями (правительственные организации, новостные агентства и администраторы социальных сетей) и пользователи контента, которые могут быть подвержены сообщениям с фейковыми новостями. Опрос оценил бы три существующие системы блокчейна и измерил готовность участников использовать эти системы в разных сценариях.

Прослеживаемость — одна из хороших функций блокчейна, говорит Тран, потому что она может идентифицировать и классифицировать источники дезинформации, чтобы помочь распознать закономерности.

«Я надеюсь, что это исследование поможет нам научить больше людей осознавать закономерности,  — говорит Тран, “чтобы они знали, когда нужно проверить что-то перед тем, как поделиться этим, и более внимательно относиться к несоответствиям между заголовком и самим контентом, что не даст дезинформации непреднамеренно распространяться».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *