За последние несколько недель произошел ряд значительных событий в мировом обсуждении рисков и регулирования искусственного интеллекта (ИИ). Возникающая тема, как на слушаниях в США по вопросам OpenAI с Сэмом Альтманом, так и в объявлении ЕС о внесенных поправках в Акт об искусственном интеллекте, состоит в требовании более жесткого регулирования.
Однако для некоторых сюрпризом стало согласие между правительствами, исследователями и разработчиками ИИ относительно необходимости регулирования. В своем показании перед Конгрессом, Сэм Альтман, генеральный директор OpenAI, предложил создание нового государственного органа, выдающего лицензии на разработку масштабных моделей искусственного интеллекта.
Он предложил несколько вариантов того, как такой орган мог бы регулировать отрасль, включая «комбинацию требований к лицензированию и тестированию» и заявил, что компании, такие как OpenAI, должны проходить независимую аудиторскую проверку.
Однако, хотя возросло согласие относительно рисков, включая потенциальное влияние на рабочие места и конфиденциальность, все еще нет единого мнения о том, какими должны быть такие регулирования или на что должны быть сосредоточены потенциальные аудиты. На первой Всемирной сессии по генеративному искусственному интеллекту, проведенной Всемирным экономическим форумом, где лидеры в области ИИ из бизнеса, правительств и исследовательских учреждений собрались для согласования подходов к новым этическим и регуляторным вопросам, выделились две основные темы:
Необходимость ответственной и обоснованной проверки ИИ
Во-первых, необходимо обновить требования к компаниям, разрабатывающим и внедряющим модели ИИ. Это особенно важно, когда мы задаем вопрос, что на самом деле означает «ответственная инновация». Ведущую роль в этом обсуждении играет Великобритания, где правительство недавно представило руководство по применению ИИ на основе пяти основных принципов, включающих безопасность, прозрачность и справедливость. Также недавние исследования из Оксфорда указывают на «настоятельную необходимость обновления нашего представления об ответственности» в связи с использованием LLM, таких, как ChatGPT.
Одним из основных аргументов, подталкивающих к новым обязанностям, является все более сложная задача понимания и проверки нового поколения моделей ИИ. Для рассмотрения этой эволюции можно сравнить «традиционный» ИИ с LLM ИИ, или ИИ на основе больших языковых моделей, на примере рекомендации кандидатов на рабочие места.
Если традиционный ИИ обучался на данных, которые идентифицируют сотрудников определенной расы или пола на более высоких должностях, он мог создавать предвзятость, рекомендуя людей той же расы или пола на подобные должности. К счастью, такую предвзятость можно было бы обнаружить или проверить, исследуя данные, использованные для обучения этих моделей ИИ, а также рекомендации, которые они выдают.
С использованием нового ИИ на основе LLM подобные проверки на предвзятость становятся все более сложными, если не невозможными. Мы не только не знаем, на каких данных был обучен «закрытый» LLM, но и рекомендация в рамках диалога может вносить предвзятость или «галлюцинации» более субъективного характера.
Например, если вы попросите ChatGPT подытожить выступление президентского кандидата, кто будет судить, является ли это предвзятой сводкой?
Таким образом, важно для продуктов, включающих рекомендации на основе ИИ, учитывать новые обязанности, такие как прослеживаемость рекомендаций, чтобы обеспечить возможность проверки предвзятости моделей, используемых в рекомендациях, а не только использовать LLM.
Именно этот аспект, что считать рекомендацией или решением, является ключевым для новых регуляций ИИ в сфере управления персоналом. Например, новый закон AEDT города Нью-Йорк требует проведения проверки предвзятости для технологий, которые прямо связаны с принятием решений о трудоустройстве, таких как те, которые могут автоматически определять, кого нанимать.
Однако регулятивный ландшафт быстро развивается, выходя за пределы того, как ИИ принимает решения, и входит в область того, как ИИ создается и используется.
Прозрачность в отношении передачи стандартов ИИ потребителям
Это приводит нас ко второй ключевой теме: необходимости установления более ясных и широких стандартов для разработки ИИ-технологий и предоставления этих стандартов потребителям и сотрудникам.
На недавнем слушании OpenAI Кристина Монтгомери, вице-президент IBM по защите конфиденциальности и доверию IBM, подчеркнула, что нам нужны стандарты, чтобы гарантировать, что потребители всегда осознают, когда они взаимодействуют с чат-ботом. Такая прозрачность в отношении разработки ИИ и риска использования моделей с открытым исходным кодом является ключевой составляющей рассмотрения ЕС в связи с запретом LLM API и моделей с открытым исходным кодом.
Вопрос о том, как контролировать распространение новых моделей и технологий, потребует дальнейших обсуждений, прежде чем станут ясны компромиссы между рисками и преимуществами. Однако все более очевидно, что с ускорением влияния ИИ возрастает необходимость в стандартах и регулировании, а также осознавание как рисков, так и возможностей.
Влияние регулирования ИИ на команды по управлению персоналом и руководителей бизнеса
Наиболее ощутимое влияние ИИ проявляется, возможно, на командах по управлению персоналом, которым предстоит справляться с новыми вызовами, такими как обеспечение сотрудникам возможностей для повышения квалификации и предоставление исполнительным командам корректированных прогнозов и планов трудовых ресурсов, связанных с новыми навыками, необходимыми для адаптации бизнес-стратегии.
ВЭФ только что опубликовал свой «Отчет о будущем рынка труда», который подчеркивает, что в течение следующих пяти лет 23% рабочих мест ожидают изменения, с созданием 69 миллионов новых рабочих мест, но устранением 83 миллионов. Это означает, что по меньшей мере 14 миллионов рабочих мест находятся под угрозой.
Отчет также подчеркивает, что шесть из десяти работников должны изменить свой набор навыков, чтобы выполнять свою работу — им понадобится повышение квалификации и переквалификация — до 2027 года, но только половине сотрудников сегодня предоставляются достаточные возможности обучения.
Каким образом команды могут удержать сотрудников вовлеченными в ускоренную ИИ-трансформацию? Путем внутренней трансформации, сосредоточенной на сотрудниках, и тщательного рассмотрения создания соответствующего и связанного комплекта взаимодействий между людьми и технологиями, которые дадут сотрудникам лучшую прозрачность в отношении их карьеры и инструменты для и их развития.
Новая волна регулирования помогает более детально рассмотреть вопрос о предвзятости в решениях, связанных с людьми, например, в области талантов. И тем не менее, поскольку эти технологии принимаются людьми как на работе, так и вне ее, ответственность бизнеса и руководителей по управлению персоналом возрастает более чем когда-либо для понимания как технологии, так и регулятивного ландшафта и активного участия в разработке ответственной стратегии применения ИИ в их командах и бизнесе.
С целью эффективного управления этими изменениями и соответствия требованиям регулирования, HR-команды и руководители бизнеса должны принять несколько важных шагов. Во-первых, необходимо обеспечить понимание и осведомленность о принципах ответственного использования ИИ среди сотрудников. Это может включать проведение обучающих программ и мероприятий, направленных на повышение осведомленности о том, как ИИ используется и какие риски с ним связаны.
Кроме того, HR-команды должны активно работать над трансформацией внутренних процессов и систем, чтобы обеспечить прозрачность и справедливость при принятии решений, основанных на ИИ. Это включает оценку и мониторинг алгоритмов, используемых в системах управления персоналом, с целью выявления и предотвращения предвзятости и неравенства.
Кроме того, HR-команды должны работать в тесном сотрудничестве с отделами юридической поддержки и соответствия, чтобы обеспечить соблюдение регулятивных требований, связанных с использованием ИИ в сфере управления персоналом. Это может включать разработку политик и процедур, направленных на соблюдение нормативных актов, таких как законы о защите данных и принципы недискриминации.
Осознание влияния ИИ на решения, связанные с персоналом, и соответствие требованиям регулирования должны стать неотъемлемой частью стратегии управления персоналом и бизнеса. Применение ответственного ИИ требует совместных усилий и постоянного мониторинга, чтобы обеспечить справедливость, прозрачность и предотвращение негативных последствий для сотрудников и организации в целом.