«Эпоха неопределенности» в области искусственного интеллекта

Исторически сложилось так, что периоды быстрого прогресса и перемен приводили к временам большой неопределенности. Гарвардский экономист Джон Кеннет Гэлбрейт писал о таком времени в своей книге «Эпоха неопределенности» (1977 г.), в которой он рассуждал об успехах рыночной экономики, но при этом предсказывал период нестабильности, неэффективности и социального неравенства.

Сегодня, когда мы движемся по волнам трансформации ИИ, мы находимся на пороге новой эпохи, характеризующейся аналогичной неопределенностью. Однако на этот раз движущей силой является не просто экономика, а неумолимое шествие технологий, в частности, рост и развитие искусственного интеллекта.

Растущее влияние искусственного интеллекта

Уже сейчас влияние искусственного интеллекта становится все более заметным в повседневной жизни. От песен, созданных искусственным интеллектом, и хайку, написанных в стиле Шекспира, до самоуправляемых автомобилей, чат-ботов, которые могут имитировать потерянных близких, и помощников ИИ, помогающих нам в работе, — технология начинает проникать повсеместно.

В скором времени ИИ станет еще более распространенным в связи с приближающимся цунами ИИ. Профессор Уортонской школы бизнеса Итан Моллик недавно написал о результатах эксперимента, посвященного будущему профессиональной деятельности. В центре эксперимента были две группы консультантов, работавших в Boston Consultant Group. Перед каждой группой были поставлены различные общие задачи. Одна группа могла использовать имеющийся на данный момент искусственный интеллект для дополнения своих усилий, а другая — нет.

Моллик сообщил: «Консультанты, использующие искусственный интеллект, выполнили в среднем на 12,2% больше задач, на 25,1% быстрее и на 40% качественнее, чем те, кто не использовал его».

Конечно, не исключено, что проблемы, присущие большим языковым моделям (LLM), такие как конфабуляция и предвзятость, могут привести к тому, что эта волна просто рассеется, хотя сейчас это кажется маловероятным. Хотя технология уже демонстрирует свой разрушительный потенциал, пройдет еще несколько лет, прежде чем мы сможем ощутить всю мощь цунами. Вот взгляд на то, что нас ожидает.

Следующая волна моделей ИИ

Следующее поколение ИИ-моделей будет более сложным и более универсальным, чем нынешнее поколение, включающее GPT-4 (OpenAI), PaLM 2 (Google), LLaMA (Meta*) и Claude 2 (Anthropic). Вполне вероятно, что появится также новая и, возможно, очень способная модель от xAI, нового стартапа Илона Маска. Такие способности, как рассуждение, здравый смысл и суждение, остаются серьезными проблемами для этих моделей. Однако мы можем ожидать прогресса в каждой из этих областей.

По сообщению The Wall Street Journal, компания Meta* работает над новым поколением LLM, которое по своим возможностям будет не хуже GPT-4. Согласно сообщению, это ожидается к 2024 году. Разумно ожидать, что OpenAI также работает над своим следующим поколением, хотя пока они молчат о своих планах. Вероятно, это ненадолго.

Судя по имеющейся на данный момент информации, наиболее значимой новой моделью является «Gemini», созданная объединенной командой Google Brain и DeepMind AI. Gemini может значительно превзойти все имеющиеся на сегодняшний день разработки. В мае прошлого года генеральный директор Alphabet Сундар Пичаи сообщил, что обучение этой модели уже ведется.

В своем блоге Пичаи сказал тогда: «Пока мы еще на ранней стадии, но уже видим впечатляющие мультимодальные возможности, которых не было в предыдущих моделях».

Мультимодальность означает, что модель может обрабатывать и понимать несколько типов входных данных (текст и изображения), являясь основой для приложений, основанных как на тексте, так и на изображениях. Упоминание о возможностях, не встречавшихся в предыдущих моделях, означает, что могут появиться новые или непредвиденные качества и модели поведения. Новым примером нынешнего поколения является способность создавать компьютерный код, поскольку эта способность не была ожидаемой.

Швейцарский армейский нож моделей ИИ?

Появились сообщения о том, что Google предоставила небольшой группе компаний доступ к ранней версии Gemini. Одной из них может быть SemiAnalysis, известная компания, занимающаяся исследованиями в области полупроводников. Согласно новому сообщению компании, Gemini может быть в 5-20 раз более совершенной, чем модели GPT-4, представленные сейчас на рынке.

Конструкция Gemini, скорее всего, будет основана на проекте Gato компании DeepMind, представленном в 2022 году. В прошлом году в статье VentureBeat сообщалось следующее: «Модель трансформера с глубоким обучением (Gato) описывается как «универсальный агент» и предназначена для выполнения 604 различных и в основном рутинных задач с различными модальностями, наблюдениями и спецификациями действий. Ее называют «швейцарским армейским ножом» среди моделей ИИ. Очевидно, что она гораздо более общая, чем другие системы ИИ, разработанные к настоящему времени, и в этом отношении представляется шагом на пути к AGI (искусственному интеллекту общего назначения)».

На пути к искусственному интеллекту общего назначения (AGI)

Уже сейчас GPT-4, по мнению Microsoft, демонстрирует «искры AGI», способные «решать новые и сложные задачи, охватывающие математику, кодирование, зрение, медицину, право, психологию и многое другое, не нуждаясь в специальных подсказках». Опережая все существующие модели, Gemini действительно может стать большим шагом на пути к AGI. Предполагается, что Gemini будет выпущена в нескольких уровнях возможностей модели, возможно, в течение нескольких месяцев, а возможно, и до конца этого года.

Как бы ни была впечатляюща Gemini, ожидаются еще более крупные и сложные модели. Мустафа Сулейман, генеральный директор и соучредитель компании Inflection AI и соучредитель DeepMind, в беседе с журналом Economist предсказал, что «в ближайшие пять лет компании, занимающиеся разработкой передовых моделей — те из нас, кто находится на самом переднем крае и обучает самые крупные модели ИИ, — будут обучать модели, которые более чем в тысячу раз превышают те, что вы видите сегодня в GPT-4».

Потенциальные возможности применения и влияния этих моделей на нашу повседневную жизнь могут быть беспрецедентными, что может принести как огромную пользу, так и повышенную опасность. Vanity Fair приводит слова Дэвида Чалмерса, профессора философии и нейронаук в Нью-Йоркском университете: «Положительные стороны этого огромны, возможно, эти системы найдут лекарства от болезней и решения таких проблем, как бедность и изменение климата, и это огромные плюсы». В статье также обсуждаются потенциальные риски, приводятся прогнозы экспертов, предсказывающих ужасающие последствия, включая возможность вымирания человечества, причем вероятность этого явления оценивается от 1% до 50%.

Конец истории с доминированием человека?

В беседе с Economist историк Юваль Ной Харари сказал, что грядущие успехи в развитии ИИ ознаменуют не конец истории, а «конец истории с доминированием человека». «История будет продолжаться, но управлять ею будет кто-то другой. Я думаю об этом скорее как о вторжении инопланетян».

На что Сулейман возразил: Инструменты ИИ не будут иметь свободы действий, то есть они не смогут делать ничего, кроме того, что им поручит человек. Харари ответил, что этот будущий ИИ может быть «более разумным, чем мы». «Как же вы помешаете чему-то более разумному, чем вы, развить свободу воли?» Обладая самостоятельностью, ИИ сможет совершать действия, которые могут не соответствовать потребностям и ценностям человека.

Эти модели нового поколения представляют собой следующий шаг на пути к AGI и будущему, в котором ИИ станет еще более способным, интегрированным и незаменимым для современной жизни. Несмотря на то что есть все основания для оптимизма, эти ожидаемые новые разработки придают еще больший импульс призывам к контролю и регулированию.

Проблема регулирования

Даже руководители компаний, создающих передовые модели, согласны с тем, что регулирование необходимо. После того как 13 сентября многие из них совместно выступили в Сенате США, Fortune сообщила, что они «в общих чертах одобрили идею государственного регулирования» и что «консенсус по поводу того, как должно выглядеть регулирование, практически отсутствует».

Заседание была организована сенатором Чаком Шумером, который затем обсудил проблемы, возникающие при разработке соответствующего регулирования. Он отметил, что ИИ технически сложен, постоянно меняется и «имеет такой широкий, масштабный эффект во всем мире».

Возможно, регулирование ИИ вообще не представляется возможным. С одной стороны, многие технологии были выпущены в виде программного обеспечения с открытым исходным кодом, то есть фактически находятся в свободном доступе для всех желающих. Уже одно это может сделать проблематичными многие попытки регулирования.

Меры предосторожности логичны и разумны

Некоторые считают публичные заявления лидеров ИИ в поддержку регулирования театральными. MarketWatch приводит мнение Тома Сибела, многолетнего руководителя из Кремниевой долины и нынешнего генерального директора компании C3 AI: «Руководители ИИ играют с законодателями, прося их регулировать нас. Но не хватает денег и интеллектуального капитала, чтобы обеспечить безопасность миллионов алгоритмов. Они знают, что это невозможно».

Возможно, это действительно невозможно, но мы должны сделать попытку. Как отметил Сулейман в своей беседе с Economist: «Сейчас настал момент, когда мы должны принять принцип предосторожности, причем не из-за каких-то страшилок, а просто как логичный, разумный способ действовать».

По мере того как искусственный интеллект стремительно развивается от узких возможностей к AGI, перспективы огромны, а опасности глубоки. Этот век неопределенности требует от нас глубочайшей совести, мудрости и осторожности, чтобы развивать эти технологии ИИ на благо человечества, избегая при этом крайних потенциальных опасностей.

*Meta признана экстремистcкой организацией в России.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *