Гонконгская судебная система будет оценивать возможность широкого использования искусственного интеллекта (ИИ) в залах суда, но пока нет планов разрешить судьям использовать инструмент ChatGPT для ускорения своей работы.
Пилотный проект, в рамках которого судьи и юридические служащие смогут использовать транскрибацию речи в текст в реальном времени на кантонском языке с помощью ИИ, будет завершен в третьем квартале этого года, сообщил представитель судебной системы.
«Затем мы рассмотрим и оценим возможность широкого использования технологии распознавания речи в текст всеми судьями и юридическими служащими в качестве помощи при выполнении ими судебных функций в залах суда и кабинетах к концу этого года», — сказал он.
Испытания начались в 2021 году с использованием программных продуктов двух местных технологических компаний, но первые результаты показали, что есть «много места для улучшений», особенно в транскрибации юридической терминологии, сообщила судебная система.
Десять судей и служащих, участвующих в испытаниях, используют улучшенную версию программного обеспечения для составления заметок для собственного использования во время судебных процессов.
Представитель судебной системы сказал, что использование ChatGPT, который непосредственно не доступен в городе, будет запрещено в судах.
Этот инструмент искусственного интеллекта, появившийся в прошлом году, способен использовать информацию из интернета для ответа на вопросы или быстрого написания эссе на хорошо написанном и грамматически правильном языке, похожем на человеческий.
«Принимая во внимание тот факт, что Гонконг еще не получил разрешения на использование ChatGPT и потенциальные риски для безопасности данных, судебная система не планирует разрешать судьям и юридическим служащим использование ChatGPT в их судебной работе», — сказал представитель.
Аббревиатура GPT в названии означает «Generative Pre-Trained Transformer», что означает, что несмотря на человекоподобные ответы, этот инструмент запрограммирован в основном для использования информации из интернета и других источников, ограниченных материалом, доступным только до 2021 года.
Газета The Post проверила ChatGPT, предоставив соответствующие юридические материалы по двум делам и запросив его решения, но чат-бот отказался вынести судебное решение по обоим делам, сказав, что у него нет доступа к текущим судебным делам и процессам, и для принятия правовых решений требуется наличие лицензированного специалиста.
Адвокаты и юридические фирмы в городе используют инструменты искусственного интеллекта для обзора документов и проверки юридической деятельности, а некоторые из них пытаются использовать генеративный ИИ, который может создавать новый контент на основе набора данных.
Адвокаты рассказали газете The Post, что в секторе есть потенциал для использования ИИ, но технология не может заменить людей в судебной системе, так как алгоритмы не могут воспроизводить критическое мышление и не обладают юридическими знаниями или эмпатией.
«Эти инструменты генеративного ИИ ускорили то, что юристы могли бы делать в течение нескольких часов, при условии, что юристы сами умеют пользоваться чат-ботом», — сказал Джошуа Чу Киу-ва, адвокат, специализирующийся на технологическом праве.
Доцент Элиза Мик, занимающаяся исследованиями в области юридических технологий в Китайском университете, сказала, что инструменты ИИ не могут проверять факты или усваивать юридические знания и нуждаются в руководстве пользователей, чтобы формировать ответы, предоставляя юридические сведения.
«Они не понимают мир, они не знают или не осведомлены о законе», предупреждает она.
Мик и Чу предупреждают о возможных «галлюцинациях», имея в виду ситуации, когда генеративные инструменты ИИ производят логически верные, но фактически неверные утверждения.
В мае судья в Нью-Йорке оштрафовал двух адвокатов на сумму 5000 долларов США за представление юридической записки, содержащей вымышленные дела и ссылки. Адвокат Стивен Шварц, написавший записку, признал, что использовал ChatGPT, но не знал, что в нем могут быть вымышленные дела.
Во Франции использование ИИ для анализа и прогнозирования поведения судей было запрещено в 2019 году после того, как адвокат и специалист по машинному обучению опубликовал свой анализ решений судов по делам о предоставлении убежища.
Но на материковой части Китая судьи обязаны консультироваться с системой искусственного интеллекта для каждого дела и предоставлять письменные объяснения, если они отклоняются от предложений машины.
Эта система искусственного интеллекта, которая остается спорной на материковой части, автоматически отбирает судебные дела для ссылок, рекомендует законы и правила, составляет юридические документы и исправляет замеченные человеческие ошибки в вердикте.
Хотя власти хвалили эффективность системы, критики выражали опасения относительно того, что судьи не ставят ее под сомнение и возможной утратой судебной власти.
Президент Гонконгского юридического общества Чан Чак-мин сказал, что адвокаты в городе должны понимать характер и ограничения инструментов ИИ, чтобы выполнять свои обязанности перед клиентами, если они хотят полагаться на эту технологию.
Адвокат по технологическому праву Чу сказал, что генеративный ИИ может быть использован для создания базовых шаблонов, на которых могут работать адвокаты и судьи для улучшения качества и скорости юридических представлений, а также помочь справиться с задержками дел в судах.
«Если есть обоснование для принятия решения, использование ИИ для написания проекта решения не будет таким плохим», — сказал он.
Однако он добавил, что судебная система должна разработать свою собственную систему искусственного интеллекта для обеспечения безопасности данных с политикой обучения сотрудников ее использованию.
Доцент Стюарт Харгривз из юридического факультета Китайского университета отметил, что по мере улучшения технологии ИИ она может быть использована для помощи юристам и судьям в сборе и обработке информации.
Однако принятие правовых решений должно оставаться в компетенции людей из-за серьезности последствий, подчеркнул он, добавив, что текущие инструменты ИИ плохо справляются с задачами, требующими ценностного суждения и специализированных знаний.
«Хотя в будущем будет место для использования ИИ в сборе и обработке юридических знаний, в конечном итоге за результат должен отвечать человек», — сказал он.