Технологические компании, ориентированные на ИИ, вовлечены в «гонку на дно», предупреждает профессор Массачусетского технологического института

Ученый, написавший знаковое письмо с призывом сделать паузу в разработке мощных систем искусственного интеллекта, заявил, что руководители технологических компаний не остановили свою работу, потому что они вовлечены в «гонку на дно».

Макс Тегмарк, один из основателей Института будущего жизни, в марте этого года выступил с открытым письмом, в котором призвал сделать полугодовую паузу в разработке гигантских систем искусственного интеллекта.

Несмотря на поддержку со стороны более чем 30 000 подписантов, включая Илона Маска и соучредителя Apple Стива Возняка, документ не смог обеспечить перерыв в разработке самых амбициозных систем.

В беседе с Guardian спустя полгода Тегмарк сказал, что он не ожидал, что письмо остановит работу технологических компаний над моделями ИИ, более мощными, чем GPT-4, большой языковой модели, на которой основан ChatGPT, поскольку конкуренция стала настолько острой.

«Мне показалось, что в частном порядке многие руководители компаний, с которыми я разговаривал, хотели бы сделать паузу, но они оказались в ловушке этой гонки на дно друг с другом. Поэтому ни одна компания не может сделать паузу в одиночку», — сказал он.

В письме содержится предупреждение о «вышедшей из-под контроля гонке» по созданию разума, который никто не сможет «понять, предсказать или надежно контролировать», и призыв к правительствам вмешаться, если ведущие компании, занимающиеся разработкой ИИ, такие как Google, владелец ChatGPT — OpenAI и Microsoft, не смогут договориться о моратории на создание систем, более мощных, чем GPT-4.

В нем спрашивается: «Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге могут превзойти, перехитрить, вытеснить и заменить нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?»

Тегмарк, профессор физики Массачусетского технологического института, заявил, что считает письмо успешным.

«Письмо оказало большее влияние, чем я думал», — сказал он, указывая на политическое пробуждение в отношении ИИ, которое выразилось в проведении слушаний в Сенате США с участием руководителей технологических компаний и созыве правительством Великобритании в ноябре глобального саммита по безопасности ИИ.

По словам Тегмарка, с момента публикации письма выражение тревоги по поводу ИИ превратилось из запретного в общепринятое мнение. За письмом его аналитического центра в мае последовало заявление Центра безопасности ИИ, поддержанное сотнями руководителей технологических компаний и ученых, в котором говорилось о том, что ИИ следует рассматривать как социальный риск наравне с пандемиями и ядерной войной.

«Я чувствовал, что в мире накопилось много сдерживаемой тревоги по поводу дальнейшего развития ИИ, которую люди по всему миру боялись выразить, опасаясь показаться пугливыми луддитами. Письмо узаконило разговоры об этом; письмо сделало это социально приемлемым.

«Так что теперь такие люди, как подписавший письмо Юваль Ной Харари, говорят об этом, а политики начинают задавать жесткие вопросы», — говорит Тегмарк, чей аналитический центр исследует экзистенциальные угрозы и потенциальные выгоды от использования передовых технологий.

Опасения, связанные с развитием ИИ, варьируются от сиюминутных, таких как способность генерировать фальшивые видеоролики и массово распространять дезинформацию, до экзистенциальной опасности, которую представляют собой сверхинтеллектуальные ИИ, ускользающие от контроля человека или принимающие необратимые и имеющие серьезные последствия решения.

Тегмарк предостерег от описания развития цифрового «богоподобного общего интеллекта» как долгосрочной угрозы, сославшись на то, что некоторые специалисты в области ИИ считают, что это может произойти в течение нескольких лет.

Шведско-американский ученый отметил, что ноябрьский саммит по безопасности ИИ в Великобритании, который пройдет в Блетчли-парке, является «замечательным событием». По мнению его аналитического центра, саммит должен быть нацелен на достижение трех целей: формирование общего понимания серьезности рисков, связанных с ИИ; признание необходимости единой глобальной реакции; и принятие необходимости срочного вмешательства государства.

Он добавил, что до тех пор, пока не будут достигнуты согласованные мировые стандарты безопасности, необходимо сделать перерыв в разработках. «Создание моделей, более мощных, чем те, что мы имеем сейчас, должно быть приостановлено до тех пор, пока они не будут соответствовать согласованным стандартам безопасности». Он добавил: «Согласование стандартов безопасности, естественно, приведет к паузе».

Тегмарк также призвал правительства принять меры в отношении моделей искусственного интеллекта с открытым исходным кодом, к которым могли бы получить доступ и адаптировать их представители общественности. Компания Meta*, принадлежащая Марку Цукербергу, недавно выпустила открытую большую языковую модель под названием Llama 2, и один из британских экспертов предупредил, что такой шаг сродни «предоставлению людям шаблона для создания ядерной бомбы».

«Опасные технологии не должны быть с открытым исходным кодом, независимо от того, идет ли речь о биооружии или программном обеспечении», — сказал Тегмарк.

*Meta признана экстремистcкой организацией в России.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *