Белый дом заручился обязательствами по безопасности еще восьми компаний, работающих в области искусственного интеллекта

Администрация Байдена-Харрис объявила о том, что она добилась второго раунда добровольных обязательств по обеспечению безопасности со стороны восьми известных компаний, работающих в области ИИ.

Представители Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI и Stability присутствовали в Белом доме на церемонии объявления. Эти восемь компаний обязались играть ключевую роль в содействии развитию безопасного, надежного и заслуживающего доверия ИИ.

Администрация Байдена-Харрис активно работает над указом и двухпартийным законодательством, чтобы обеспечить лидерство США в ответственном развитии ИИ, раскрывающем его потенциал и управляющем рисками.

Обязательства, взятые на себя этими компаниями, вращаются вокруг трех основополагающих принципов: безопасность, защищенность и доверие. Они обязались:

Убедиться в безопасности продуктов до их внедрения:

Компании обязуются проводить тщательное внутреннее и внешнее тестирование систем искусственного интеллекта на безопасность, прежде чем выпустить их на рынок. Это включает в себя оценку независимыми экспертами, что позволяет предотвратить значительные риски ИИ, такие как биобезопасность, кибербезопасность и более широкие общественные последствия.

Они также будут активно обмениваться информацией об управлении рисками ИИ с правительствами, гражданским обществом, научными кругами и всеми представителями отрасли. Такой совместный подход будет включать обмен передовым опытом в области безопасности, информацией о попытках обойти защиту и техническое сотрудничество.

Создавать системы, в которых защищенность является главным приоритетом:

Компании обязались инвестировать средства в обеспечение кибербезопасности и защиту от внутренних угроз для защиты проприетарных и невыпущенных моделей. Признавая критическую важность весов моделей в системах искусственного интеллекта, компании обязуются раскрывать их только тогда, когда это необходимо и при условии адекватного устранения рисков безопасности.

Кроме того, компании будут содействовать обнаружению уязвимостей в своих системах искусственного интеллекта третьими лицами и сообщать о них. Такой проактивный подход позволяет оперативно выявлять и устранять проблемы даже после развертывания системы искусственного интеллекта.

Завоевать доверие общественности:

Для повышения прозрачности и подотчетности компании разработают надежные технические механизмы, такие как системы водяных знаков, которые будут указывать на то, что контент создан искусственным интеллектом. Этот шаг призван стимулировать творческий подход и продуктивность, снижая при этом риски мошенничества и обмана.

Они также будут публично сообщать о возможностях, ограничениях и областях целесообразного и нецелесообразного использования своих систем ИИ, охватывая как безопасность, так и общественные риски, включая справедливость и предвзятость. Кроме того, эти компании обязуются уделять приоритетное внимание исследованиям социальных рисков, создаваемых системами ИИ, включая борьбу с вредными предубеждениями и дискриминацией.

Эти ведущие компании будут также разрабатывать и внедрять передовые системы ИИ для решения важных общественных проблем, от профилактики рака до смягчения последствий изменения климата, способствуя всеобщему процветанию, равенству и безопасности.

Взаимодействие администрации Байдена-Харрис с этими обязательствами выходит за рамки США, в консультациях участвуют многочисленные международные партнеры и союзники.

Данное заявление знаменует собой важную веху на пути к ответственному развитию ИИ, когда лидеры отрасли и правительство объединяют усилия для обеспечения того, чтобы технологии ИИ приносили пользу обществу при одновременном снижении присущих им рисков.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *