Работники, которые сделали ChatGPT менее вредным, обращаются к законодателям с просьбой пресечь предполагаемую эксплуатацию со стороны Big Tech

Кенийские работники, которые помогали удалять вредный контент на ChatGPT, умном поисковике OpenAI, который генерирует контент на основе запросов пользователей, подали петицию в законодательные органы страны, призывая их начать расследование в отношении аутсорсинга Big Tech по модерированию контента и работе искусственного интеллекта в Кении.

Заявители хотят провести расследование «характера работы, условий труда и деятельности» крупных технологических компаний, которые передают услуги на аутсорсинг в Кении через компании, такие как Sama, которая стала центром нескольких судебных процессов о предполагаемой эксплуатации, подавлении профсоюзов и незаконном массовом увольнении модераторов контента.

Петиция следует за материалом Time, который подробно описывает низкую оплату работников Sama, которые сделали ChatGPT менее токсичным, и характер их работы, которая требовала чтения и маркировки графического текста, включая описание сцен убийства, зоофилии и изнасилования. В отчете говорится, что в конце 2021 года Sama была нанята OpenAI для «маркировки текстовых описаний сексуального насилия, разжигания ненависти и насилия» в рамках работы по созданию инструмента (встроенного в ChatGPT) для обнаружения вредоносного контента.

Работники утверждают, что их эксплуатировали и не предлагали психологической поддержки, при этом они сталкивались с вредным контентом, который привел к «тяжелым психическим расстройствам». Работники хотят, чтобы законодатели «регулировали аутсорсинг вредных и опасных технологий» и защищали работников, занятых в этой сфере.

Они также требуют принятия законодательства, регулирующего «аутсорсинг работ с вредными и опасными технологиями и защищающего работников, занятых в таких сферах».

Sama заявляет, что среди его клиентов 25% компаний Fortune 50, включая Google и Microsoft. Компания с главным офисом в Сан-Франциско занимается аннотацией, курированием и проверкой данных компьютерного зрения. В ее штате более 3 000 человек, включая один из офисов в Кении. Ранее в этом году Sama отказалась от услуг модерации контента, чтобы сосредоточиться на аннотации данных компьютерного зрения и уволив 260 работников.

В ответ на предполагаемую эксплуатацию OpenAI признает, что работа была сложной и добавляет, что установила и передала своим аннотаторам данных этические стандарты и стандарты благополучия (без указания подробностей о конкретных мерах), чтобы работа была выполнена «гуманно и добровольно».

Они отмечают, что для создания безопасного и полезного искусственного общего интеллекта аннотация данных людьми является одним из многих потоков работы для сбора обратной связи и направления моделей на более безопасное поведение в реальном мире.

«Мы признаем, что это сложная работа для наших исследователей и аннотаторов данных в Кении и по всему миру — их усилия в обеспечении безопасности систем ИИ были чрезвычайно ценными», — сказал представитель OpenAI.

Sama заявила TechCrunch, что открыта для сотрудничества с кенийским правительством «для обеспечения наличия базовых мер защиты во всех компаниях». Компания также приветствует проверку условий труда третьей стороной, добавляя, что у сотрудников есть несколько каналов для выражения своих опасений и что она «проводит множество внешних и внутренних оценок и проверок, чтобы гарантировать справедливую оплату и создание достойных условий труда».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *