Китай предлагает ужесточить ограничения на использование обучающих данных и моделей для создания генеративных сервисов ИИ

Китай планирует ввести более строгие ограничения на использование в стране сервисов генеративного искусственного интеллекта (ИИ), поскольку власти пытаются найти баланс между использованием преимуществ технологии и снижением рисков.

Новый проект руководства, опубликованный в среду Национальным техническим комитетом по стандартизации информационной безопасности (National Information Security Standardisation Technical Committee), который занимается разработкой стандартов в области ИТ-безопасности, направлен на совершенствование двух ключевых областей — безопасность исходных учебных данных и большие языковые модели (LLM), используемые для создания генеративных ИИ-сервисов.

Проект предусматривает, что учебные материалы по ИИ не должны нарушать авторские права или нарушать безопасность персональных данных. Он требует, чтобы обучающие данные обрабатывались уполномоченными специалистами по маркировке и рецензированию данных и, во-первых, проходили проверку на безопасность.

Во-вторых, разработчики, создавая свои LLM — алгоритмы глубокого обучения, натренированные на огромных массивах данных, которые используются в генеративных ИИ чат-ботах, таких как Ernie Bot компании Baidu, — должны основываться на фундаментальных моделях, зарегистрированных и лицензированных властями, говорится в проекте.

В проекте предлагается создать систему «черных списков», блокирующих учебные материалы, содержащие более 5% нелегального контента, а также информацию, считающуюся вредной в соответствии с законодательством о кибербезопасности.

Под нелегальным контентом в Китае обычно понимаются материалы, подстрекающие к насилию и экстремизму, распространяющие слухи и дезинформацию, пропагандирующие порнографию и суеверия. Пекин также подвергает цензуре чувствительную политическую информацию, например, вопросы о статусе Тайваня.

В проекте предлагается, чтобы в процессе обучения разработчики рассматривали безопасность генерируемого контента как один из основных пунктов оценки, а «в каждом диалоге с генеративными ИИ-сервисами информация, вводимая пользователями, должна проходить проверку на безопасность, чтобы убедиться, что ИИ-модели генерируют позитивный контент».

Предлагаемый проект просит общественность высказать свое мнение до 25 октября.

В августе Китай ввел общее регулирование, направленное на внутренние сервисы генеративного ИИ, став одной из первых стран, установивших правила, регулирующие эту новую технологию.

В прошлом месяце правительство Китая одобрило ряд местных сервисов генеративного ИИ, включая чат-боты поискового гиганта Baidu, поддерживаемой государством компании iFlyTek, Zhipu AI, нового предприятия соучредителя компании Sogou Вана Сяочуаня Baichuan и SenseTime.

В тестах, проведенных Post, китайские чат-боты по-разному отвечают на вопрос о том, является ли Тайвань частью Китая. Одни отказываются отвечать и резко завершают разговор, другие дают краткий утвердительный ответ, после чего также прекращают взаимодействие.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *