Неделя выдалась непростой для компании OpenAI, создавшей ChatGPT, и ее соучредителя Сэма Альтмана.
Альтман, который помог создать OpenAI как некоммерческую исследовательскую лабораторию в 2015 г., был снят с должности генерального директора в пятницу в результате внезапного и практически необъяснимого увольнения, которое ошеломило всю отрасль. И хотя спустя несколько дней его должность генерального директора была оперативно восстановлена, многие вопросы до сих пор остаются нерешенными.
Если вы только начинаете следить за развитием событий в OpenAI и за тем, что поставлено на карту в области искусственного интеллекта в целом, то вы пришли по адресу. Вот краткий обзор того, что вам необходимо знать.
Кто такой Сэм Альтман и как он добился славы?
Альтман — соучредитель компании OpenAI, расположенной в Сан-Франциско и создавшей ChatGPT (тот самый чат-бот, который сегодня, кажется, повсюду — от школ до здравоохранения).
Взрывной рост популярности ChatGPT после его появления год назад, который может создавать новые изображения, отрывки текста и другие медиа, привел Альтмана в центр внимания стремительной коммерциализации генеративного ИИ. Став самым востребованным в Кремниевой долине экспертом по вопросам перспектив и потенциальных опасностей этой технологии, Альтман помог превратить OpenAI во всемирно известный стартап.
Однако его положение в OpenAI оказалось не совсем простым в вихре событий прошедшей недели. В пятницу Альтман был уволен с поста генерального директора, а через несколько дней вернулся к работе с новым составом совета директоров.
За это время компания Microsoft, вложившая в OpenAI миллиарды долларов и обладающая правами на существующие технологии, способствовала возвращению Альтмана, быстро приняв его на работу, как и еще одного соучредителя и бывшего президента OpenAI Грега Брокмана, который уволился в знак протеста после отстранения генерального директора. Тем временем сотни сотрудников OpenAI пригрозили уволиться.
В начале среды Альтман и Брокман отпраздновали свое возвращение в компанию сообщениями на платформе X, ранее известной как Twitter.
Почему его отстранение и восстановление в должности имеет значение?
Многое остается неизвестным относительно первоначального отстранения Альтмана от должности. В опубликованном в пятницу сообщении говорилось, что он «не был достаточно откровенен в общении» с тогдашним советом директоров, однако более конкретные детали сообщить отказались.
Тем не менее, эта новость вызвала шок в мире ИИ, а поскольку OpenAI и Альтман являются ведущими игроками в этой области, это может вызвать опасения по поводу доверия к развивающейся технологии, к которой у многих людей все еще остаются вопросы.
«Эпизод с OpenAI показывает, насколько хрупкой является экосистема ИИ в настоящее время, включая решение проблемы рисков ИИ», — сказал Йоханн Лаукс, эксперт Оксфордского института Интернета, занимающийся вопросами человеческого контроля над искусственным интеллектом.
Случившееся также подчеркнуло разногласия между Альтманом и членами предыдущего совета директоров компании, которые высказывали различные точки зрения на риски безопасности, связанные с искусственным интеллектом по мере развития технологии.
По мнению многих экспертов, эта история подчеркивает, что именно правительства, а не крупные технологические компании, должны определять правила регулирования ИИ, особенно в отношении таких быстро развивающихся технологий, как генеративный ИИ.
«События последних дней не только поставили под угрозу попытку OpenAI внедрить более этичные принципы корпоративного управления в руководстве своей компании, но и показали, что само по себе корпоративное управление, даже при наличии благих намерений, может быть легко поглощено динамикой и интересами других компаний», — говорит Энца Яннополло, главный аналитик компании Forrester.
Урок, по словам Яннополло, заключается в том, что компании не могут в одиночку обеспечить тот уровень безопасности и доверия к ИИ, который необходим обществу. «Правила и защитные механизмы, разработанные совместно с компаниями и строго контролируемые регулирующими органами, крайне важны, если мы хотим получить выгоду от ИИ», — добавил он.
Что такое генеративный ИИ? Как он регулируется?
В отличие от традиционного ИИ, который обрабатывает данные и выполняет задачи по заранее установленным правилам, генеративный ИИ (включая чат-боты типа ChatGPT) может создавать нечто новое.
Технологические компании по-прежнему лидируют в вопросах регулирования ИИ и связанных с ним рисков, в то время как правительства разных стран мира пытаются наверстать упущенное.
В Европейском союзе участники переговоров наносят последние штрихи на то, что должно стать первым в мире всеобъемлющим нормативным актом в области ИИ. Однако, как сообщается, они затрудняются решить, следует ли включать в него наиболее спорные и революционные продукты ИИ — коммерциализированные большие языковые модели, лежащие в основе генеративных систем ИИ, таких как ChatGPT.
О чат-ботах практически не упоминалось, когда Брюссель впервые представил первоначальный проект закона в 2021 году, в котором основное внимание уделялось ИИ с конкретным применением. Но чиновники уже спешат придумать, как включить эти системы, также известные как базовые модели, в окончательный вариант.
Тем временем в США президент Джо Байден в прошлом месяце подписал амбициозный указ, направленный на обеспечение баланса между потребностями передовых технологических компаний, национальной безопасностью и правами потребителей.
Указ, который, скорее всего, будет дополнен решением Конгресса, является первым шагом, призванным обеспечить надежность и полезность ИИ, а не его вредоносность и разрушительность. Он призван направить разработку ИИ в нужное русло, чтобы компании могли получать прибыль, не ставя под угрозу общественную безопасность.