Председатель Верховного суда США Джон Робертс призывает к «осторожности», поскольку искусственный интеллект меняет правовое поле

Искусственный интеллект (ИИ) представляет собой неоднозначное благо для юридической сферы, заявил председатель Верховного суда США Джон Робертс в опубликованном в воскресенье докладе по итогам года, призвав к «осторожности и смирению», поскольку развивающаяся технология меняет то, как судьи и адвокаты выполняют свою работу.

В своем 13-страничном докладе Робертс придерживается неоднозначного тона. Он отметил, что искусственный интеллект может расширить доступ к правосудию для неимущих, произвести революцию в области юридических исследований и помочь судам быстрее и дешевле разрешать дела, но при этом указал на проблемы с конфиденциальностью и неспособность нынешней технологии заменить человеческую осмотрительность.

«Я прогнозирую, что судьи-люди будут существовать еще какое-то время», — написал Робертс. «Но с такой же уверенностью я прогнозирую, что на судебную работу — особенно на уровне судебных процессов — существенно повлияет искусственный интеллект».

Комментарий председателя Верховного суда — самое значительное на сегодняшний день обсуждение влияния искусственного интеллекта на право, и он совпадает с тем, как ряд судов низшей инстанции решают вопрос о том, как лучше адаптироваться к новой технологии, способной успешно сдать экзамен на адвоката, но также склонной генерировать вымышленный контент, известный как «галлюцинации».

Робертс подчеркнул, что «любое использование искусственного интеллекта требует осторожности и смирения». Он упомянул случай, когда галлюцинации ИИ заставили юристов ссылаться на несуществующие дела в судебных документах, что, по словам председателя Верховного суда, «всегда является плохой идеей». Робертс не стал ничего уточнять, сказав лишь, что этот случай «попал в заголовки газет в этом году».

Например, на прошлой неделе Майкл Коэн, бывший помощник и адвокат Дональда Трампа, в обнародованных судебных документах заявил, что по ошибке предоставил своему адвокату вымышленные цитаты из дел, сгенерированных программой искусственного интеллекта, которые попали в официальную судебную документацию. Зафиксированы и другие случаи включения адвокатами в судебные материалы дел, сгенерированных ИИ.

В прошлом месяце федеральный апелляционный суд в Новом Орлеане привлек внимание общественности, представив, как оказалось, первое предлагаемое правило любого из 13 апелляционных судов США, направленное на регулирование использования адвокатами, выступающими в суде, инструментов генеративного ИИ, таких как ChatGPT от OpenAI.

Предложенное 5-м окружным апелляционным судом США правило потребует от адвокатов подтвердить, что они либо не использовали программы искусственного интеллекта для составления материалов, либо что люди проверяли точность любого текста, сгенерированного искусственным интеллектом, в их судебных документах.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *