Популярная пресса и потребители слишком снисходительны по отношению к ChatGPT, говорит Антон Дабура, эксперт по кибербезопасности и искусственному интеллекту из Университета Джонса Хопкинса. По его мнению, недостоверность таких больших языковых моделей (LLM) и их производство поддельного и предвзятого контента представляют реальную и растущую угрозу обществу.
«Индустрия зарабатывает большие деньги на продуктах, о которых они знают, что они используются неправильно, в огромных масштабах», говорит Дабура, директор Института информационной безопасности Университета Джонса Хопкинса и содиректор Института гарантированной автономии. «Если бы ‘галлюцинации’ ChatGPT (тенденция системы порождать бессмысленный контент) происходили в других потребительских продуктах, например, если у педали акселератора моей машины была бы ‘галлюцинация’ и она врезала бы меня в кирпичную стену, это бы называлось ‘сбоями’.»
Качественные данные, корпоративная ответственность и информирование пользователей о том, что такое искусственный интеллект и каковы его ограничения, могут помочь смягчить риск, говорит Дабура, «но они никогда не устранят проблему полностью, если проблема настолько проста, что для ее решения не следовало использовать искусственный интеллект в первую очередь.»
The Hub встретился с Дабурой, чтобы обсудить причины неопределенности в больших языковых моделях, роль, которую он считает должна играть индустрия и правительство в образовании потребителей о ИИ и его рисках, а также угрозы, которые эти новые технологии могут представлять для общества.
Вы называете ChatGPT и другие большие языковые модели «современной версией Magic 8 Ball». Расскажите подробнее.
Искусственный интеллект — это широкий класс подходов к решению сложных проблем, которые не имеют простых или «основанных на правилах » решений. Термостат — это ответ на простую проблему: когда температура поднимается выше определенного порога, он включает кондиционер, а когда она опускается ниже этого порога, он включает обогрев.
Но иногда вопросы не имеют ясных ответов, которые можно решить только простыми правилами. Например, при обучении ИИ различать изображения собак и кошек факторы, которые система ИИ использует для классификации, являются чрезвычайно сложными и редко хорошо понимаются. Поэтому сложно дать гарантии того, как система будет реагировать на изображение собаки или кошки, на котором она не была обучена, тем более на изображение апельсина. Она может даже непредсказуемо реагировать на изображение, на котором она была обучена!
Я назвал это неотъемлемое свойство систем ИИ «принципом неопределенности ИИ», потому что сложность проблем ИИ означает, что уверенность и ИИ не могут сосуществовать, если решение настолько просто, что не требуется использование ИИ или правил, построенных для смягчения непредсказуемости системы ИИ.
То, что я говорю, заключается в том, что невозможно обучить эти технологии на каждом конкретном сценарии, поэтому нельзя точно предсказать результат их использования каждый раз. То же самое с Magic 8 Ball: ответ может быть не таким, какой вы ожидаете получить.
Вы называете компании безответственными за то, что они не предупреждают людей о потенциале LLM «галлюцинировать». Можете ли привести пример галлюцинации?
Галлюцинации — это ответы, содержащие неверную или вымышленную информацию. Существует ряд галлюцинаций, которые могут повлиять на технологии, включая некоторые, которые относительно безобидны, например, когда LLM говорит группе учеников начальной школы, что в солнечной системе 13 планет. Эту информацию легко проверить с помощью быстрого поиска в Google, но другие более малоизвестные детали или утверждения, созданные ChatGPT, могут иметь более серьезные последствия. Один пример — использование ИИ для обнаружения рака на основе рентгеновских снимков или сканов. Галлюцинация может обнаружить рак, которого на самом деле нет, или может просто не обнаружить рак на снимке. Оба эти сценария могут быть очевидно вредными.
Независимо от того, задаете ли вы вопрос LLM или используете ее для интерпретации изображения, или она встроена в автомобиль, который движется по автостраде со скоростью 65 миль в час, вы подаете ей входные данные и она генерирует выходные данные. Иногда это будет хорошо, но иногда нет. Когда вы играете с Magic 8 Ball, ответ не имеет значения. Но в некоторых сценариях в реальной жизни это имеет большое значение.
Расскажите нам подробнее о вашем предложении, что компании и федеральное правительство должны информировать пользователей и потребителей о так называемом «Magic 8 Ball» компоненте LLM.
Потребители должны быть полностью осведомлены о возможностях и рисках, связанных с ChatGPT и другими LLM. Речь идет о серьезных вопросах, например, о компаниях, разрабатывающих автономные автомобили, которые используют общественные дороги в качестве лабораторных испытаний для этих технологий. Водители должны знать, что эти транспортные средства находятся на тех же дорогах, что и они.
Я думаю, что существуют ожидания, что да, эти вещи могут сбоить, но они исправятся и как только это произойдет, все эти проблемы просто исчезнут. Но проблемы всегда будут. Галлюцинации не исчезнут в ближайшем будущем.
Тем не менее, проблемы с ChatGPT и другими подобными моделями будут решаться, потому что компании и организации, разрабатывающие эти технологии, быстро создают правила и ограничения. Тем не менее, пользователем следует сохранять скептицизм. Использование ИИ будет сложным, и мы не хотим, чтобы ситуация ухудшилась до того, как она станет лучше.