Connect with us

Как искусственный интеллект используется в суде

Искусственный интеллект

Как искусственный интеллект используется в суде

mm
Closeup of a judge's gavel in a courtroom.

Каждый день различные профессионалы системы правосудия проводят юридические исследования, общаются с клиентами, управляют судебными делами и интерпретируют закон. Их работа является фундаментальной для безопасного и функционирующего общества, поэтому многие интересуются обещанием более высокой производительности. Юристы — особенно государственные защитники — часто имеют огромную нагрузку. Судьи пишут мнения, которые могут запутать воду для будущих юридических процедур. Регламенты и законы постоянно меняются. В этой сложной системе искусственный интеллект (ИИ) появился как средство для автоматизации трудоемких административных процессов.

Ежедневные применения ИИ в суде

Большая часть рабочей недели юриста проводится на трудоемких административных задачах, а не на убеждении жюри в суде. Они тратят 80% своего времени на сбор информации и только 20% на анализ и последствия. Чтобы построить дела, они должны тщательно просмотреть судебную практику, регламенты и законы. ИИ может оптимизировать такие задачи, сэкономив им бесчисленные часы.

Помощники ИИ могут помочь юристам оптимизировать графики и управлять нагрузкой, преодолевая проблемы с расписанием. Генеративный ИИ может помочь им и их сотрудникам проводить юридические исследования. Судьи могут консультироваться с алгоритмическими инструментами оценки риска при принятии решений о залоге.

Инструмент может помочь и другим юридическим специалистам. Модели обработки естественного языка могут помочь стенографистам с транскрипцией, а большие языковые модели (LLM) могут помочь переводчикам с переводом. Генеративный ИИ может подготовить документы, автоматизировать общение с клиентами или организовать дела для паралегалов и юридических помощников.

Преимущества интеграции ИИ в судебные функции

ИИ может ускорить трудоемкие, повторяющиеся задачи, освобождая профессионалов для более важных или срочных дел. Это будет особенно полезно для государственных защитников, которые ведут сотни дел и апелляций каждый год. В среднем они тратят от 13,5 до 286 часов на дело, представляя обвиняемых.

Юридические профессионалы не являются единственными, кто может извлечь выгоду из использования ИИ. Истцы, представляющие себя в суде, могут получить юридические рекомендации от чат-ботов ИИ.

ИИ может сделать юридическое представительство более доступным для обездоленных и недопредставленных слоев населения. Юридические фирмы могут использовать его для предоставления бесплатных юридических услуг лицам с низкими доходами. Поскольку одна модель может взаимодействовать с тысячами или даже миллионами людей одновременно, она может масштабироваться по мере расширения юридической фирмы.

Юридические и этические проблемы, связанные с ИИ

Хотя ИИ может быть полезен для истцов, юристов, судей и переводчиков, его неправильное использование может привести к ошибочным юридическим решениям. В 2024 году Институт искусственного интеллекта Стэнфордского университета обнаружил, что современные LLM имеют коэффициент «галлюцинации» 69% до 88% в ответ на юридические запросы.

LLM часто уверенно выводят ошибочную или вымышленную информацию. Например, они могут цитировать несуществующую судебную практику или выдумывать цитаты при проведении юридических исследований. Несмотря на то, что они кажутся правдоподобными, эти «галлюцинации» неточны.

Возможна также намеренная обмана, учитывая силу генеративного ИИ. Истец может использовать его, чтобы подделать взлом, сгенерировав видео домашней безопасности, на котором изображен обвиняемый, крадущий его имущество. Этот пример не является полностью гипотетическим, поскольку глубокие подделки уже использовались в суде.

В США 80% судебных дел зависят от видео — включая записи с камер наблюдения, записи с мобильных телефонов или кадры с камер наблюдения — в какой-то степени. Это причина, по которой юридические профессионалы глубоко обеспокоены глубокими подделками. В сентябре 2025 года судья отклонил гражданское дело после того, как определил, что видеозапись показания свидетеля была глубокой подделкой.

Злоумышленники могут нацеливаться на инструменты юридических исследований ИИ, чтобы нарушить систему правосудия. Исследования показывают, что возможно «отравить» 0,01% образцов обучающей выборки с помощью существующих инструментов. Это может показаться незначительным, но уровень «отравления» всего 0,001% может навсегда изменить выходные данные. Пользователи могут получить доступ к примерно 30% образцов в любой данной LLM, что делает коррупцию удивительно легкой.

Реальные дела, в которых использовался ИИ в суде

ИИ может быть полезен для юридических профессионалов и лиц, представляющих себя в суде. Однако большинство реальных примеров, которые привлекают внимание, не являются благоприятными. Из-за широкой обеспокоенности по поводу юридических и этических последствий ИИ в суде худшие примеры получают наибольшее внимание.

В мае 2025 года федеральный судья Майкл Уилнер хотел узнать больше об аргументах, которые некоторые юристы представили в документе. Однако статьи, на которые они ссылались, не существовали. После того, как их попросили предоставить более подробную информацию, они представили новое заявление с еще большим количеством неточностей, чем первое.

Когда Уилнер приказал им дать под присягой показания, объясняющие ошибки, они признались, что использовали ИИ Google Gemini и специальные модели ИИ для юридических фирм для написания документа. Судья наложил штрафы в размере 31 000 долларов на юридическую фирму. Хотя они не вводили конфиденциальную или непубличную информацию, они все равно потратили время суда.

Это не только юристы и истцы, которые неправильно используют ИИ. В 2025 году два федеральных судьи США отозвали свои решения после того, как было обнаружено, что их сотрудники суда использовали инструменты ИИ для юридических исследований, в результате чего получились ошибочные, «галлюцинационные» цитаты дел. Хотя они обвинили ошибочные решения в ИИ, они несут ответственность за чтение дел, на которые они ссылаются.

Это не единичные дела, подчеркивающие небольшие, малоизвестные местные юридические фирмы — это известные юристы и федеральные судьи, совершающие неловкие, избегаемые ошибки. Вина не лежит исключительно на интеллектуальных алгоритмах, либо. В конечном итоге ИИ — это всего лишь инструмент. Будет ли его влияние положительным или отрицательным, зависит от пользователя.

Как система правосудия должна использовать ИИ

Публично доступные LLM представляют собой риски точности и безопасности, которые могут произойти. Модели генерации с поддержкой извлечения (RAG) в конкретной области продвигаются как решение для «галлюцинаций» ИИ, поскольку они извлекают соответствующую информацию из внешних, доверенных баз знаний перед генерацией ответа.

Однако модель RAG не является серебряной пулей, поскольку закон не состоит полностью из неоспоримых, проверяемых фактов. Жюри подвержено влиянию обаятельных юристов. Судьи пишут мнения, чтобы объяснить рассуждения, лежащие в основе их решений. Законы различаются между странами, штатами и местными органами власти. Есть место для ошибок в этой серой зоне.

Закон часто зависит от интерпретации — это причина, по которой существуют юристы и судьи. Люди не могут ожидать от ИИ, что он будет непогрешимым авторитетом в этой области. Хотя использование RAG является шагом в правильном направлении, обеспечение непрерывного надзора с помощью подхода «человек в цикле» является ключом.

Как ИИ будет использоваться в будущих судах

Суды полагаются на соответствующие документы, подтвержденные точными цитатами. Несмотря на то, что ИИ широко принят паралегалами и юристами для экономии времени и усилий на административных задачах, он все еще испытывает трудности с извлечением этой информации.

«Галлюцинации» ИИ не являются исключительными для судов США. В одном деле в Великобритании истец потребовал почти 120 миллионов долларов в качестве компенсации от Qatar National Bank. Суд обнаружил, что 40% цитат судебной практики были полностью вымышленными. Даже реальные дела были наполнены фальшивыми цитатами. В конце концов истец признался, что использовал инструменты ИИ для юридических исследований.

Даже если их дело было прочным, «галлюцинации» ИИ повредили их репутации и авторитету, потенциально влияя на исход против них. Чтобы избежать подобных ошибок в будущем, закон должен догнать ИИ.

Правила, регулирующие использование ИИ и надзор, должны быть подробными и прочными. Суды с «устными соглашениями» скорее всего обнаружат, что сотрудники все еще используют ИИ. Как знают юридические профессионалы, правила требуют механизма принудительного исполнения. Дисциплинарные меры и штрафы помогут профессионалам понять серьезность безопасного и этического использования ИИ.

Серебряная подкладка использования ИИ в суде

Эти высокие ставки ошибок вызывают дальнейшие вопросы о целостности исследований. Раскрыли ли инструменты ИИ непреднамеренно, что юристы не проверяют юридические исследования, а судьи оформляют непроверенные проекты? Хорошо или плохо, ИИ становится частью системы правосудия. Как и любой другой инструмент, его влияние будет зависеть от того, как он используется. Серебряная подкладка заключается в том, что даже неловкие ошибки предоставляют профессионалам руководство по тому, чего не следует делать.

Zac Amos - это технический писатель, который фокусируется на искусственном интеллекте. Он также является редактором рубрики в ReHack, где вы можете прочитать больше его работ.