Срочно необходимо поддержать граждан с помощью системы цифровой самозащиты, утверждает эксперт по нейронаукам из Института публичной политики Бейкера при Университете Райса.
Необходимы меры по регулированию продвинутого искусственного интеллекта (ИИ) и социальных медиа, усиленных ИИ, для защиты у людей от «взлома» искусственным интеллектом наших межличностных отношений и коллективного интеллекта, говорит Харрис Эйр, исследователь в области здоровья мозга в Институте Бейкера.
«Хотя такая технология переносит весь мир к нам на устройства и предлагает множество возможностей для индивидуального и коллективного развития, она также может искажать реальность и создавать ложные иллюзии», пишет он в новом отчете. «Распространяя дезинформацию, социальные медиа и ИИ представляют прямую угрозу функционированию наших демократий».
На данный момент дипфейки уже вызывают беспокойство по мере приближения к избирательному сезону. Эйр утверждает, что существует срочная необходимость в разработке политики, основанной на нейронауках, для поддержки граждан против ИИ, такой как «нейрощит».
«То, как мы интерпретируем реальность вокруг себя, то, как мы учимся и реагируем, зависит от того, как наш мозг работает», пишет он. «Утверждается, что, учитывая быстрый рост технологий, эволюции не хватило времени на развитие тех областей неокортекса, которые отвечают за высшие когнитивные функции. В результате мы являемся биологически уязвимыми и незащищенными».
«Нейрощит» включал бы три подхода: разработку кодекса поведения в отношении объективности информации, внедрение регуляторных мер и создание образовательного инструментария для граждан.
Отчет утверждает, что сотрудничество между издателями, журналистами, медиа-лидерами, лицами, формирующими общественное мнение и учеными, занимающимися изучением мозга может сформировать «кодекс поведения», поддерживающий объективность информации. Эйр объясняет, что интерпретация фактов лежит в области социальной и политической свободы, но неоспоримые истины должны быть защищены.
«Как демонстрируют нейронауки, неопределенность в понимании фактов может создавать ‘альтернативные истины’, которые прочно кодируются в наших мозгах», объясняет он.
Инструментарий, разработанный с участием нейробиологов, мог бы защитить когнитивную свободу, а также защитить людей, особенно молодых людей в социальных медиа, от дезинформации. Основная цель этого инструментария состоит в том, чтобы помочь людям научиться проверять факты самостоятельно и противостоять уязвимости мозга к предвзятости и дезинформации. Например, Google в настоящее время проводит кампании в других странах, показывая короткие видеоролики на сайтах социальных медиа и выделяя способы создания вводящих в заблуждение утверждений.
Тем не менее, саморегулирование и исключительная зависимость от кодекса поведения могут создать неравные условия, утверждает Эйр.
«Очень важно, чтобы и законодатели, и ученые, занимающиеся изучением мозга, продвигали этот политический подход», говорит он. «Предложенный Европейский акт об искусственном интеллекте является примером того, как поставщиков моделей ИИ можно сделать ответственными и обеспечить прозрачность. Активное вовлечение нейронауки в планирование и внедрение «нейрощита» может гарантировать, что будут учтены лучшие имеющиеся понимания о функционировании нашего познания».