Перевод статьи Билла Гейтса от 11 июля 2023 года.
Мир многое узнал о том, как справляться с проблемами, вызванными прорывными инновациями.
Риски, создаваемые искусственным интеллектом, могут показаться подавляющими. Что происходит с людьми, которые теряют работу из-за умных машин? Может ли искусственный интеллект повлиять на результаты выборов? Что, если будущий искусственный интеллект решит, что ему больше не нужны люди и захочет избавиться от нас?
Все эти вопросы справедливы, и опасения, которые они вызывают, должны быть приняты всерьез. Но есть веская причина думать, что мы можем справиться с ними: это не первый раз, когда значительная инновация вносит новые угрозы, которые должны быть контролируемы. Мы уже справлялись с этим.
Будь то введение автомобилей или расцвет персональных компьютеров и Интернета, люди справлялись с другими переломными моментами и, несмотря на все потрясения, вышли из них в лучшем положении. Вскоре после появления первых автомобилей на дорогах произошло первое ДТП. Но мы не запрещали автомобили — мы ввели ограничения скорости, стандарты безопасности, требования к получению лицензий, законы о противодействии вождению в состоянии опьянения и другие правила дорожного движения.
Мы находимся в самом раннем этапе еще одного глубокого изменения — эпохи искусственного интеллекта. Это аналогично неопределенным временам до установления ограничений скорости и применения ремней безопасности. Искусственный интеллект меняется так быстро, что точно неясно, что произойдет дальше. Мы сталкиваемся с важными вопросами, возникающими из-за работы текущей технологии, способов злоупотребления ею людьми и того, как искусственный интеллект изменит наше общество и нас самих как личностей.
В такой момент естественно ощущать беспокойство. Но история показывает, что вызовы, созданные новыми технологиями, возможно решить.
Ранее я уже писал о том, как искусственный интеллект изменит нашу жизнь. Он поможет решать проблемы в области здравоохранения, образования, изменения климата и других, которые раньше казались неразрешимыми. Фонд Гейтса делает это приоритетом, и наш генеральный директор Марк Сазман недавно поделился своим видением роли искусственного интеллекта в снижении неравенства.
В будущем я расскажу больше о преимуществах искусственного интеллекта, но в этом сообщении я хочу признать опасения, которые я часто слышу и читаю, многие из которых я разделяю, и объяснить, как я к ним отношусь.
Одно ясно из всего, что было написано до сих пор о рисках искусственного интеллекта — и написано было много, — никто не имеет всех ответов. Другое, что ясно для меня, — будущее искусственного интеллекта не так мрачно, как думают некоторые, и не так светло, как думают другие. Риски реальны, но я оптимистичен в отношении возможности их управления. При обсуждении каждой проблемы я вернусь к нескольким темам:
- Многие проблемы, вызванные искусственным интеллектом, имеют исторический прецедент. Например, он окажет большое влияние на образование, но также и карманные калькуляторы несколько десятилетий назад, а недавно — разрешение использовать компьютеры в классе, также оказали сильное воздействие. Мы можем учиться на опыте прошлого.
- Многие проблемы, вызванные искусственным интеллектом, также могут быть управляемыми при помощи искусственного интеллекта.
- Нам придется адаптировать старые законы и принять новые, так же, как уже существующие законы против мошенничества должны были быть приспособлены к онлайн-миру.
В этой статье я собираюсь сосредоточиться на рисках, которые уже существуют или скоро появятся. Я не рассматриваю вопрос о том, что произойдет, когда мы разработаем искусственный интеллект, способный учиться любой теме или задаче, в отличие от нынешних специализированных искусственных интеллектов. Независимо от того, достигнем ли мы этой точки через десять лет или столетие, общество будет вынуждено столкнуться с глубокими вопросами. Что, если сверхинтеллект создаст свои собственные цели? Что, если они будут противоречить интересам человечества? Следует ли вообще создавать сверхинтеллект?
Однако обдумывание этих рисков в долгосрочной перспективе не должно происходить за счет более актуальных проблем. Сейчас я обращусь к ним.
Дипфейки и дезинформация, созданные искусственным интеллектом, могут подорвать выборы и демократию.
Идея использования технологии для распространения лжи и неправды не нова. Люди делали это с помощью книг и листовок веками. Однако с появлением текстовых процессоров, лазерных принтеров, электронной почты и социальных сетей это стало гораздо проще.
Искусственный интеллект берет эту проблему фальшивого текста и расширяет ее возможности, позволяя практически любому создавать поддельное аудио и видео, известное как дипфейки. Если вы получите голосовое сообщение, в котором звучит голос вашего ребенка, говорящего: «Меня похитили, пожалуйста, отправьте 1000 долларов на этот банковский счет в течение следующих 10 минут и не звоните в полицию», это окажет ужасное эмоциональное воздействие, гораздо большее, чем электронное письмо, говорящее то же самое.
В более широком масштабе дипфейки, созданные искусственным интеллектом, могут быть использованы для попытки повлиять на выборы. Конечно, для подрыва доверия к законному победителю выборов не требуется сложная технология, но искусственный интеллект сделает это проще.
Уже есть поддельные видеозаписи с фальшивыми кадрами известных политиков. Представьте, что утром перед важными выборами, становится вирусным видео, на котором один из кандидатов грабит банк. Это подделка, но новостным изданиям и штабу кампании потребуется несколько часов, чтобы доказать это. Сколько людей увидят и изменят свои голоса в последнюю минуту? Это может перевесить чашу весов, особенно при близком исходе выборов.
Когда сооснователь OpenAI Сэм Альтман недавно выступал перед комитетом Сената США, сенаторы обеих партий акцентировали внимание на влиянии искусственного интеллекта на выборы и демократию. Я надеюсь, что эта тема продолжит подниматься все выше в списке всех приоритетов.
Мы, конечно, не решили проблему дезинформации и глубоких подделок. Но две вещи заставляют меня быть осторожно оптимистичным. Во-первых, люди способны научиться не принимать все на веру. В течение многих лет пользователи электронной почты попадались на мошеннические схемы, где кто-то, выдавая себя за нигерийского принца, обещал большое вознаграждение взамен предоставления номера кредитной карты. Но со временем большинство людей научились внимательно относиться к таким письмам. По мере усовершенствования мошеннических схем совершенствовались и их жертвы. Нам придется развить аналогичную способность для глубоких подделок.
Второе, что меня обнадеживает, — это то, что искусственный интеллект может помочь как выявлять глубокие подделки, так и создавать их. Компания Intel, например, разработала детектор глубоких подделок, а агентство DARPA работает над технологией идентификации измененного видео или аудио.
Это будет циклический процесс: кто-то находит способ обнаружения подделок, кто-то другой находит способ противодействия, кто-то разрабатывает контрмеры и так далее. Это не будет идеальным успехом, но мы также не будем беспомощными.
Искусственный интеллект облегчает запуск атак на людей и правительства.
Сегодня, когда хакеры хотят найти уязвимости в программном обеспечении, они применяют грубую силу — пишут код, который ищет потенциальные слабости до тех пор, пока не обнаружат путь внутрь. Это включает множество тупиков, что требует времени и терпения.
Специалисты по безопасности, желающие противодействовать хакерам, должны делать то же самое. Каждое исправление программного обеспечения, которое вы устанавливаете на свой телефон или ноутбук, представляет собой множество часов поиска, как со стороны людей с хорошими, так и с плохими намерениями.
Модели искусственного интеллекта ускорят этот процесс, помогая хакерам писать более эффективный код. Они также смогут использовать общедоступную информацию о людях, такую как место работы и друзья, для создания фишинговых атак, более сложных, чем те, с которыми мы сталкиваемся сегодня.
Хорошая новость в том, что искусственный интеллект может использоваться как в положительных, так и в отрицательных целях. Государственные и частные команды по безопасности должны иметь последние инструменты для обнаружения и устранения уязвимостей безопасности, прежде чем преступники смогут воспользоваться ими. Я надеюсь, что индустрия программной безопасности расширит свою работу в этом направлении — это должно быть их высшим приоритетом.
Вот почему мы не должны временно препятствовать внедрению новых разработок в области искусственного интеллекта, как предлагают некоторые. Киберпреступники не прекратят создание новых инструментов. То же самое касается людей, желающих использовать искусственный интеллект для разработки ядерного оружия и биотеррористических атак. Усилия по противодействию им должны продолжаться в том же темпе.
Существует связанная угроза на глобальном уровне: гонка вооружений в области искусственного интеллекта, который может использоваться для разработки и запуска кибератак против других стран. Каждое правительство хочет обладать самой мощной технологией, чтобы отпугнуть атаки со стороны своих противников. Этот стимул не позволяет никому опережать других и может спровоцировать гонку на создание все более опасного кибероружия. Все пострадают.
Это страшная мысль, но у нас есть история, которая направляет нас. Несмотря на недостатки мирового режима нераспространения ядерного оружия, он предотвратил полномасштабную ядерную войну, которую наше поколение так боялось, когда мы росли. Правительства должны рассмотреть возможность создания глобальной организации по искусственному интеллекту, аналогичной Международному агентству по атомной энергии.
Искусственный интеллект отнимет рабочие места у людей.
В ближайшие годы основное влияние искусственного интеллекта на работу будет заключаться в помощи людям более эффективно выполнять свои задачи. Это будет верно, независимо от того, работают ли они на фабрике или в офисе, обрабатывая телефонные звонки и расчеты по оплате. В конечном счете искусственный интеллект будет достаточно хорош в выражении идей и сможет писать электронные письма за вас и управлять вашим почтовым ящиком. Вы сможете написать запрос на простом английском или любом другом языке и создать качественную презентацию по вашей работе.
Как я утверждал в своем сообщении в феврале, рост производительности является полезным для общества. Он дает людям больше времени на другие вещи, на работе и дома. И потребность в людях, которые помогают другим — учителях, медицинском персонале, поддержке пожилых людей и т.д. — никогда не исчезнет. Однако правда в том, что некоторым работникам потребуется поддержка и переобучение при переходе к рабочему месту, основанному на искусственном интеллекте. Это задача правительств и бизнеса, и им нужно управлять этим хорошо, чтобы работники не остались позади, чтобы избежать такого рода нарушений в жизни людей, которые происходили во время сокращения рабочих мест в производственной сфере в Соединенных Штатах.
Также стоит помнить, что это не первый раз, когда новая технология вызывает значительные изменения на рынке труда. Я не думаю, что влияние искусственного интеллекта будет столь же драматичным, как промышленная революция, но оно будет таким же значительным, как появление персональных компьютеров. Программы обработки текста не уничтожили офисную работу, но они навсегда изменили ее. Работодатели и сотрудники должны были приспособиться, и они сделали это. Переход, вызванный искусственным интеллектом, будет некоторым образом трудным, но есть все основания полагать, что мы можем сократить нарушения в жизни и средствах к существованию людей.
Искусственный интеллект наследует наши предубеждения и выдумывает.
Галлюцинации — это случаи, когда искусственный интеллект уверенно делает утверждение, которое просто не является правдой, и это обычно происходит, потому что машина не понимает контекст вашего запроса. Если попросить искусственный интеллект написать короткий рассказ о поездке на Луну, он может дать вам очень фантазийный ответ. Но если попросить его помочь вам спланировать поездку в Танзанию, он может попытаться отправить вас в отель, которого не существует.
Еще одним риском искусственного интеллекта является то, что он отражает или даже усугубляет существующие предубеждения в отношении людей определенного пола, расы, этнической принадлежности и т.д.
Чтобы понять, почему происходят галлюцинации и предвзятость, важно знать, как работают наиболее распространенные модели искусственного интеллекта сегодня. Они по сути являются очень сложными версиями кода, который позволяет вашему приложению электронной почты предсказывать следующее слово, которое вы наберете: они сканируют огромные объемы текста — практически все, что доступно онлайн, в некоторых случаях — и анализируют его, чтобы найти закономерности в человеческом языке.
Когда вы задаете вопрос искусственному интеллекту, он смотрит на использованные вами слова, а затем ищет фрагменты текста, которые часто связаны с этими словами. Если вы пишете «перечислите ингредиенты для блинов», он может заметить, что слова «мука, сахар, соль, разрыхлитель, молоко и яйца» часто появляются вместе с этой фразой. Затем, исходя из того, что он знает о порядке, в котором обычно появляются эти слова, он генерирует ответ. (Модели искусственного интеллекта, работающие таким образом, используют то, что называется трансформатором. GPT-4 — одна из таких моделей.)
Этот процесс объясняет, почему искусственный интеллект может испытывать галлюцинации или казаться предвзятым. У него нет контекста для вопросов, которые вы задаете, или для того, что вы рассказываете ему. Если вы говорите, что он совершил ошибку, он может сказать: «Извините, я набрал неправильно». Но это галлюцинация — он ничего не набирал. Он говорит это только потому, что он просканировал достаточное количество текста, чтобы знать, что «Извините, я набрал неправильно» — это предложение, которое люди часто пишут после исправления.
Аналогично, модели искусственного интеллекта унаследуют предубеждения, заложенные в тексте, на котором они обучаются. Если модель читает много о, скажем, врачах, и в тексте в основном упоминаются мужчины-врачи, то ее ответы будут предполагать, что большинство врачей являются мужчинами.
Хотя некоторые исследователи считают галлюцинации неизбежной проблемой, я не согласен с этим. Я оптимистично смотрю в будущее и считаю, что со временем модели искусственного интеллекта можно научить различать факты от вымысла. Например, OpenAI ведет многообещающую работу в этом направлении.
Другие организации, включая Институт имени Алана Тьюринга и Национальный институт стандартов и технологий, работают над проблемой предвзятости. Один из подходов заключается в том, чтобы внедрить в искусственный интеллект человеческие ценности и высокоуровневое мышление. Это аналогично работе самосознательного человека: возможно, вы предполагаете, что большинство врачей являются мужчинами, но вы достаточно осознаете эту предпосылку, чтобы знать, что вам нужно сознательно бороться с ней. Искусственный интеллект может работать похожим образом, особенно если модели разрабатываются людьми с различным опытом и багажом знаний.
Наконец, каждому, кто использует искусственный интеллект, необходимо быть осведомленным о проблеме предвзятости и стать информированным пользователем. Эссе, которое вы просите искусственный интеллект составить, может быть также пропитано предубеждениями, как и фактическими ошибками. Вам придется проверять предвзятость вашего искусственного интеллекта, а также свою собственную.
Студенты не научатся писать, потому что за них это сделает искусственный интеллект.
Многие учителя беспокоятся о том, как искусственный интеллект подорвет их работу с учениками. В нашу эпоху любой человек с доступом в Интернет может использовать искусственный интеллект для написания приличного первого варианта эссе. Что мешает учащимся сдавать его как свою собственную работу?
Уже существуют инструменты искусственного интеллекта, которые учатся отличать, написано ли что-то человеком или компьютером, поэтому учителя могут определить, когда их ученики не выполняют свою работу самостоятельно. Но некоторые учителя не пытаются запретить ученикам использовать искусственный интеллект в своей письменной работе, а на самом деле поощряют его использование.
В январе опытный учитель английского языка по имени Шери Шилдс написала статью в Education Week о том, как она использует ChatGPT в своем классе. Он помогает ее ученикам во всем: начиная с разработки эссе и написания конспектов, и даже обратной связи по их работам.
«Учителя должны воспринимать технологию искусственного интеллекта как еще один инструмент, доступный учащимся», — написала она. «Как мы раньше учили учеников правильно искать в Google, учителя должны разработать четкие уроки о том, как чат-бот ChatGPT может помочь в написании эссе. Признание существования искусственного интеллекта и помощь ученикам работать с ним могут революционизировать нашу методику преподавания». Не у каждого учителя есть время на изучение и использование нового инструмента, но педагоги, подобные Шери Шилдс, убедительно доказывают, что те, кто это делает, получают много пользы.
Это напоминает мне время, когда электронные калькуляторы стали широко распространены в 1970-х и 1980-х годах. Некоторые учителя математики опасались, что ученики перестанут учиться основам арифметики, но другие приняли новую технологию и сконцентрировались на мыслительных навыках, лежащих в основе арифметики.
Искусственный интеллект также может помочь в написании и критическом мышлении. Особенно на этапе начального развития, когда галлюцинации и предубеждения все еще являются проблемой, педагоги могут использовать искусственный интеллект для создания статей и затем работать с учениками, проверяя факты. Образовательные некоммерческие организации, такие как Khan Academy и OER Project, которые я финансирую, предлагают учителям и учащимся бесплатные онлайн-инструменты, которые уделяют большое внимание проверке утверждений. Немного навыков важнее, чем умение отличать правду от лжи.
Мы должны убедиться, что программное обеспечение в области образования помогает сократить разрыв в достижениях, а не усугубляет его. Сегодняшнее программное обеспечение в основном ориентировано на авторитетных и мотивированных студентов. Оно может разработать для вас учебный план, указать на хорошие источники информации и проверить ваши знания. Однако оно еще не знает, как заинтересовать вас предметом, который вам не интересен. Эту проблему разработчики должны решить, чтобы студенты всех типов могли получить пользу от искусственного интеллекта.
Что дальше?
Я верю, что у нас есть больше причин быть оптимистичными относительно того, что мы сможем управлять рисками искусственного интеллекта, максимизируя его преимущества. Но нам нужно двигаться быстро.
Правительства должны развивать экспертизу в области искусственного интеллекта, чтобы принимать обоснованные законы и регулирования, отвечающие этой новой технологии. Им придется бороться с дезинформацией и дипфейками, угрозами безопасности, изменениями на рынке труда и воздействием на образование. Приведу лишь один пример: закон должен четко определять, какие использования дипфейков являются законными, и как должны быть помечены дипфейки, чтобы каждый понимал, когда то, что он видит или слышит, не является подлинным.
Политическим лидерам необходимо быть готовыми вести осведомленный и вдумчивый диалог с избирателями. Они также должны решить, насколько они готовы сотрудничать с другими странами по этим вопросам, а не действовать самостоятельно.
В частном секторе компании, занимающиеся искусственным интеллектом, должны вести свою работу безопасно и ответственно. Это включает защиту конфиденциальности людей, обеспечение того, чтобы их модели искусственного интеллекта отражали основные человеческие ценности, минимизацию предвзятости, распространение преимуществ настолько широкому кругу людей, насколько возможно, и предотвращение использования технологии преступниками или террористами. Компаниям во многих секторах экономики придется помочь своим сотрудникам перейти к рабочему месту, ориентированному на искусственный интеллект, чтобы никто не остался позади. А клиенты всегда должны знать, когда они взаимодействуют с искусственным интеллектом, а не с человеком.
Наконец, я призываю всех быть в курсе развития искусственного интеллекта настолько, насколько это возможно. Это самое трансформационное новшество, которое мы увидим за нашу жизнь, и здоровые общественные дебаты зависит от того, чтобы каждый был осведомлен о технологии, ее преимуществах и рисках. Преимущества будут огромными, и лучшей причиной верить в то, что мы сможем управлять рисками, является то, что мы уже делали это раньше.