Руководитель компании заявил на первом заседании Совета ООН, что большие технологические компании не могут гарантировать безопасность искусственного интеллекта

По словам руководителя компании занимающейся искусственным интеллектом Джека Кларка, несколько крупных технологических компаний, ведущих гонку за коммерциализацию искусственного интеллекта, не могут гарантировать безопасность систем, которые мы еще не понимаем и которые способны проявлять «хаотичное или непредсказуемое поведение». Это было заявлено на первом заседании Совета Безопасности ООН по угрозам искусственного интеллекта для мирового порядка во вторник.

Джек Кларк, сооснователь компании по искусственному интеллекту Anthropic, сказал, что именно поэтому весь мир должен объединиться, чтобы предотвратить неправомерное использование этой технологии.

Кларк, который говорит, что его компания делает все возможное, чтобы обучить своего чат-бота по искусственному интеллекту придерживаться безопасности и осторожности, сказал, что самые полезные вещи, которые можно сделать сейчас, — это работать над разработкой способов проверки возможностей, неправомерного использования и потенциальных недостатков безопасности этих систем. Кларк покинул OpenAI, создателя самого известного чат-бота ChatGPT, чтобы создать Anthropic, который создал конкурирующий продукт по искусственному интеллекту, названный Claude.

Он проследил рост искусственного интеллекта за последнее десятилетие до 2023 года, когда новые системы искусственного интеллекта могут победить военных пилотов в симуляторах воздушного боя, стабилизировать плазму в ядерных реакторах, проектировать компоненты для полупроводников следующего поколения и проверять товары на производственных линиях.

Однако, несмотря на то, что искусственный интеллект принесет огромные выгоды, Кларк сказал, что его понимание биологии, например, может также использовать ИИ систему, способную создавать биологическое оружие.

Кларк также предостерег от «потенциальных угроз международному миру, безопасности и глобальной стабильности» от двух важных качеств систем искусственного интеллекта — их потенциала для неправомерного использования и их непредсказуемости, «а также внутренней хрупкости их разработки таким узким кругом участников».

Кларк подчеркнул, что по всему миру у технологических компаний есть сложные компьютеры, большие объемы данных и капитал для создания систем искусственного интеллекта, и, следовательно, они, казалось бы, будут продолжать определять их развитие.

На видеобрифинге для самого мощного органа ООН Кларк также выразил надежду на успешные глобальные действия.

Он сказал, что он рад видеть, что многие страны подчеркивают важность проверки и оценки безопасности в своих предложениях по искусственному интеллекту, включая Европейский союз, Китай и Соединенные Штаты.

Однако в настоящее время нет стандартов или даже передовой практики, «как тестировать эти передовые системы на дискриминацию, неправомерное использование или безопасность», что затрудняет создание правил правительствами и позволяет частному сектору наслаждаться информационным преимуществом, сказал он.

«Любой разумный подход к регулированию начнется с возможности оценить систему искусственного интеллекта для определенной возможности или недостатка», — сказал Кларк. «А неудачный подход начнется с великих политических идей, не подтвержденных эффективными измерениями и оценками».

Он сказал, что с надежной оценкой систем искусственного интеллекта «правительства могут держать компании ответственными, а компании могут завоевать доверие мира, в который они хотят внедрить свои системы искусственного интеллекта». Но если нет надежной оценки, то «мы рискуем, что захват регуляторного контроля подорвет глобальную безопасность и передаст будущее узкому кругу субъектов частного сектора» — сказал он.

Другие руководители компаний искусственного интеллекта, такие как генеральный директор OpenAI Сэм Альтман, также выступили за регулирование. Но скептики говорят, что регулирование может оказаться выгодным для крупных игроков, во главе с OpenAI, Google и Microsoft, так как меньшие игроки будут вытеснены высокими затратами на приведение их больших языковых моделей в соответствие с регулятивными ограничениями.

Генеральный секретарь ООН Антониу Гутерриш заявил, что Организация Объединенных Наций — «идеальное место» для принятия глобальных стандартов для максимизации выгод искусственного интеллекта и минимизации его рисков.

Он предупредил Совет, что появление генеративного искусственного интеллекта может иметь очень серьезные последствия для международного мира и безопасности, указывая на его потенциальное использование террористами, преступниками и правительствами, вызывающее «ужасные уровни смертей и разрушений, широко распространенные травмы и глубокий психологический ущерб в неимоверном масштабе.»

В качестве первого шага для объединения наций Гутерриш заявил, что он назначает высокопоставленный консультативный совет по искусственному интеллекту, который представит отчет о вариантах глобального управления искусственным интеллектом к концу года.

Генсек ООН также сказал, что приветствует призывы некоторых стран о создании нового органа Организации Объединенных Наций для поддержки глобальных усилий по управлению искусственным интеллектом, «вдохновленного такими моделями, как Международное агентство по атомной энергии, Международная организация гражданской авиации или Межправительственная группа по изменению климата».

Профессор Цзэн Ий, директор Лаборатории когнитивного интеллекта Китайской академии наук, заявил Совету: «Организация Объединенных Наций должна играть центральную роль в разработке основы по развитию и управлению искусственным интеллектом для обеспечения мирового порядка и безопасности.»

Цзэн, который также является соучредителем Китайско-британского исследовательского центра по этике и управлению искусственным интеллектом, предложил, чтобы Совет Безопасности рассмотрел вопрос об установлении рабочей группы для рассмотрения вызовов, которые искусственный интеллект представляет для международного мира и безопасности в среднесрочной и долгосрочной перспективе.

В своем видеобрифинге Цзэн подчеркнул, что недавние системы генеративного искусственного интеллекта «являются всего лишь инструментами обработки информации, которые кажутся интеллектуальными», но не имеют настоящего понимания, поэтому «не являются истинно интеллектуальными».

Он предупредил, что «искусственный интеллект никогда не должен притворяться человеком», настаивая на том, что реальные люди должны сохранять контроль, особенно над всеми системами оружия.

Министр иностранных дел Великобритании Джеймс Клеверли, который председательствовал на заседании в связи с тем, что Великобритания председательствует в Совете в этом месяце, сказал, что осенью Великобритания соберет лидеров стран для первого крупного мирового саммита по безопасности искусственного интеллекта.

«Ни одна страна не останется незатронутой искусственным интеллектом, поэтому мы должны привлечь и вовлечь самую широкую коалицию международных участников из всех секторов», — сказал он. «Нашей общей целью будет рассмотрение рисков искусственного интеллекта и принятие решений о том, как их можно уменьшить путем координированных действий».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *