Прорыв OpenAI в области «сверхинтеллекта» возможно настолько велик, что едва не погубил компанию вместе с ChatGPT

Теперь кажется вполне вероятным, что материнская компания ChatGPT — OpenAI — решила проблему «сверхинтеллекта» и теперь размышляет о последствиях для человечества.

После того как OpenAI уволила и вновь приняла на работу своего соучредителя и генерального директора Сэма Альтмана, продолжают поступать новые сведения о том, что послужило толчком к этому шагу. В новом отчете, опубликованном в издании The Information, по крайней мере, внутренняя неурядица связывается со значительным прорывом в области генеративного ИИ, который может привести к развитию так называемого «сверхинтеллекта» в течение этого десятилетия или раньше.

Сверхинтеллект — это, как вы уже догадались, интеллект, превосходящий человеческий, и разработка ИИ, способного к такому интеллекту без надлежащих гарантий, естественно, является серьезным тревожным сигналом.

По данным The Information, инициатором прорыва стал главный научный сотрудник OpenAI, и член совета директоров компании Илья Суцкевер.

Он позволяет ИИ использовать более чистые и сгенерированные компьютером данные для решения задач, с которыми ИИ раньше не сталкивался. Это означает, что ИИ обучается не на множестве различных версий одной и той же проблемы, а на информации, не имеющей прямого отношения к проблеме. Решение проблем таким образом — обычно это математические или научные задачи — требует рассуждений. Правильно, это то, чем занимаемся мы, а не ИИ.

Основной продукт OpenAI, ориентированный на потребителя, ChatGPT (на базе большой языковой модели GPT), может показаться настолько умным, что он должен использовать разум для создания своих ответов. Однако если провести достаточно времени с ChatGPT, то вскоре можно понять, что он просто повторяет то, что узнал из огромных массивов данных, которыми его снабдили, и делает в основном точные предположения о том, как составить предложения, которые имеют смысл и применимы к вашему запросу. Никаких рассуждений здесь нет.

The Information утверждает, что этот прорыв, на который Альтман, возможно, намекнул во время недавнего выступления на конференции, сказав: «Если говорить о личном, то за последние пару недель мне довелось присутствовать в комнате, где мы как бы отодвигаем завесу невежества и расширяем границы открытий», — вызвал шок во всей OpenAI.

Хотя сейчас в ChatGPT нет никаких признаков сверхинтеллекта, OpenAI, несомненно, работает над тем, чтобы интегрировать эту мощь, по крайней мере, в некоторые из своих продуктов премиум-класса, такие как GPT-4 Turbo и другие.

Связывать суперинтеллект с недавними действиями совета директоров, которые Суцкевер первоначально поддержал, возможно, не совсем верно. Как сообщается, прорыв произошел несколько месяцев назад и побудил Суцкевера и другого ученого OpenAI, Яна Лейке, создать новую исследовательскую группу OpenAI под названием Superaligment с целью разработки средств защиты от суперинтеллекта.

Да, именно так. Компания, работающая над развитием сверхинтеллекта, одновременно создает инструменты для защиты от сверхинтеллекта.

Из отчета неясно, каким образом внутренние опасения по поводу быстрого развития сверхинтеллекта могли послужить причиной увольнения Альтмана. Возможно, это и не важно.

На данный момент Альтман возвращается в OpenAI, совет директоров обновлен, а работа по созданию сверхинтеллекта — и защите от него — будет продолжена.

Если все это непонятно, попросите ChatGPT объяснить вам это.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *