Исследователь из Университета Бен-Гуриона в Негеве разработал систему искусственного интеллекта, которая выявляет нарушения социальных норм. Этот проект является одним из первых, решающих задачу автоматического выявления нарушений социальных норм. Хотя существует множество социальных норм по всему миру, нарушение социальных норм сводится к нескольким основным категориям.
Профессор Яир Нейман и его инженер Йохай Коэн создали систему, используя GPT-3, классификацию текста с нулевой подготовкой и автоматическое обнаружение правил. В системе использовалось десять социальных эмоций в качестве категорий.
DARPA заказало программу «Computational Cultural Understanding» (CCU) для создания технологий понимания межкультурной коммуникации для повышения уровня осведомленности и эффективности взаимодействия операторов ведомства обороны США. По объяснению DARPA, межкультурные недоразумения не только могут нарушить переговоры, но также могут стать фактором, способствующим войне.
Их результаты были недавно опубликованы в журнале Scientific Reports.
Профессор Нейман и его инженер обучили систему распознавать десять социальных эмоций: компетентность, вежливость, доверие, дисциплину, заботу, привлекательность, успех, соответствие, приличие и преданность. Система успешно классифицировала ситуацию в письменной форме по одной из этих десяти категорий и могла определить, является ли она положительной или отрицательной.
Система была протестирована на двух огромных наборах коротких текстов и эмпирически доказала правильность моделей.
«Это предварительная работа, но она предоставляет убедительные доказательства того, что наш подход правильный и может быть масштабирован для включения в себя большего количества социальных норм», — говорит профессор Яир Нейман.
Профессор Нейман является руководителем лаборатории The Functor Lab на факультете когнитивных наук и наук о мозге в BGU.