По мнению некоторых экспертов в области ИИ, переломный момент в развитии искусственного интеллекта уже не за горами. Поэтому глобальный саммит по безопасности ИИ, который пройдет в ноябре в Блетчли-парке в Бакингемшире, нельзя считать преждевременным.
Ян Хогарт, председатель британской целевой группы, которой поручено тщательно изучать безопасность передовых моделей ИИ, еще до того, как занял эту должность в этом году, высказывал опасения по поводу искусственного интеллекта общего назначения (AGI), или «богоподобного» ИИ. Определения понятия AGI различны, но в целом под ним понимается система искусственного интеллекта, способная выполнять задачи на уровне человека или выше него и способная ускользнуть от нашего контроля.
Макс Тегмарк, ученый, который в этом году написал письмо с призывом приостановить масштабные эксперименты с искусственным интеллектом, рассказал Guardian, что технологические специалисты в Калифорнии считают, что AGI уже близко.
«Многие люди здесь считают, что мы достигнем богоподобного искусственного интеллекта общего назначения, возможно, через три года. Некоторые считают, что через два года».
Он добавил: «Некоторые считают, что это займет больше времени и произойдет не раньше 2030 года». Что, похоже, не так уж и далеко.
Есть и авторитетные люди, которые считают, что шумиха вокруг AGI преувеличена. Согласно одному из таких контраргументов, шумиха — это циничная уловка, направленная на регулирование и ограждение рынка и укрепление позиций крупных игроков, таких как разработчик ChatGPT компания OpenAI, Google и Microsoft.
Научно-исследовательский институт искусственного интеллекта (DAIR) предупредил, что акцент на экзистенциальном риске не учитывает непосредственных последствий использования систем ИИ, таких как: использование работ художников и авторов без разрешения для создания моделей ИИ; использование низкооплачиваемых работников для выполнения некоторых задач по созданию моделей. Тимнит Гебру, основатель и исполнительный директор DAIR, на прошлой неделе похвалила сенатора США за то, что тот поднял вопрос об условиях труда работников, работающих с данными, а не сосредоточился на «бессмыслице об экзистенциальном риске».
Другая точка зрения заключается в том, что неконтролируемого искусственного интеллекта просто не будет.
«Неконтролируемый искусственный интеллект общего назначения — это научная фантастика, а не реальность», — заявил на прошлой неделе на слушаниях в сенате США Уильям Дэлли, главный научный сотрудник компании Nvidia, производящей чипы для искусственного интеллекта. «Человек всегда будет решать, какой объем полномочий по принятию решений уступить моделям ИИ».
Однако те, кто с этим не согласен, не могут игнорировать угрозу, исходящую от ИИ. Опасения, связанные с такими системами, включают в себя отказ — и уклонение — от выключения, объединение с другими ИИ или способность к автономному самосовершенствованию. Коннор Лихи, руководитель компании Conjecture, занимающейся исследованиями в области безопасности ИИ, считает, что проблема гораздо проще.
«Глубокая проблема AGI заключается не в том, что он является злом или имеет какой-то особо опасный аспект, который необходимо устранить. Дело в том, что он компетентен. Если вы не можете контролировать компетентный ИИ человеческого уровня, то он по определению опасен», — сказал он.
Другие опасения представителей правительства Великобритании заключаются в том, что следующая итерация моделей ИИ, не достигающих уровня AGI, может быть использована недобросовестными субъектами для создания серьезных угроз, таких как биооружие. С этим связана проблема открытого исходного кода ИИ, когда модели, лежащие в основе технологии, находятся в свободном доступе и могут быть изменены.
По словам государственных служащих, они также работают над борьбой с рисками более близкого будущего, такими как дезинформация и нарушение авторских прав. Но поскольку через несколько недель в Блетчли-Парк прибудут международные лидеры, Даунинг-стрит хочет привлечь внимание мировой общественности к тому, что, по мнению официальных лиц, недостаточно серьезно воспринимается в политических кругах: к возможности того, что машины могут нанести серьезный ущерб человечеству.