Connect with us

Як штучний інтелект використовується в судових залах

Штучний інтелект

Як штучний інтелект використовується в судових залах

mm
Closeup of a judge's gavel in a courtroom.

Щодня різні фахівці системи правосуддя проводять юридичні дослідження, спілкуються з клієнтами, керують судовими справами та тлумачать закон. Їхня робота є фундаментальною для безпечного та функціонуючого суспільства, тому багато хто цікавиться обіцянкою вищої продуктивності. Юристи — особливо державні захисники — часто мають величезні обсяги справ. Судді пишуть окремі думки, які можуть заплутати воду для майбутніх юридичних процедур. Регуляції та статути постійно змінюються. У цій складній системі штучний інтелект (AI) виник як засіб автоматизації часу, витраченого на адміністративні процеси.

Побутові застосування AI в судових залах

Більшість робочого тижня юриста витрачається на часоємні адміністративні завдання, а не на переконування присяжних у судових залах. Вони витрачають 80% свого часу на збор інформації та лише 20% на аналіз та наслідки. Щоб побудувати справи, їм потрібно ретельно прочесати законодавство, регуляції та статути. AI міг би спростити такі завдання, зберігаючи їм безліч годин.

Помічники AI можуть допомогти юристам оптимізувати розклади та керувати обсягами справ, подолавши питання розкладу. Генеративний AI може допомогти їм та їхньому персоналу проводити юридичні дослідження. Судді можуть консультуватися з алгоритмічними інструментами оцінки ризику при прийнятті рішень про заставу.

Цей інструмент також може допомогти іншим юридичним фахівцям. Моделі обробки природної мови можуть допомогти стенографам із транскрипцією, а великі мовні моделі (LLM) можуть допомогти перекладачам із перекладом. Генеративний AI може складати документи, автоматизувати спілкування з клієнтами або організовувати справи для юридичних асистентів та помічників.

Переваги інтеграції AI у судові функції

AI може прискорити часоємні, повторювані завдання, звільняючи фахівців для більш важливих або термінових питань. Це було б особливо вигідно для державних захисників, які займаються сотнями справ і апеляціями щороку. В середньому вони витрачають будь-який час від 13,5 до 286 годин на справу, представляючи інтереси підсудних.

Юридичні фахівці не є єдиними, хто може отримати вигоду від використання AI. Сторони, які представляють себе в суді, можуть звернутися за юридичними порадами до чат-ботів AI.

AI може зробити юридичне представництво більш доступним для незаможних і недопредставлених верств населення. Юридичні фірми можуть використовувати його для надання безоплатних юридичних послуг низькодоходчим особам. Оскільки одна модель може взаємодіяти з тисячами або навіть мільйонами людей одночасно, вона може масштабуватися по мірі розширення юридичної фірми.

Юридичні та етичні проблеми, пов’язані з AI

Хоча AI може бути корисним для позивачів, юристів, суддів і перекладачів, його неправильне використання може привести до помилкових юридичних суджень. У 2024 році Інститут штучного інтелекту Стенфордського університету виявив, що найновіші LLM мають рівень “галюцинації” 69% до 88% у відповідь на юридичні запити.

LLM часто видають впевнені, але помилкові або вигадані відомості. Наприклад, вони можуть цитувати недійсне законодавство або вигадувати цитати під час проведення юридичних досліджень. Хоча вони можуть виглядати правдоподібно, ці “галюцинації” є неточними.

Також можливе навмисне обман, враховуючи потужність генеративного AI. Позивач міг би використовувати його для симуляції побутової крадіжки, генеруючи відеозапис з домашньої безпеки, який показує, як відповідач краде його речі. Цей приклад не є цілком гіпотетичним, оскільки deepfakes вже використовувалися в судових залах.

У США 80% судових справ залежать від відео — включаючи відеозаписи з камер спостереження, записи з мобільних телефонів або відеокліпи з відеореєстраторів — до певної міри. Саме тому юридичні фахівці глибоко стурбовані deepfakes. У вересні 2025 року суддя відхилив цивільну справу після того, як визнав, що відеозапис свідчення свідка був deepfake.

Погані актори могли б націлитися на юридичні інструменти дослідження AI, щоб порушити систему правосуддя. Дослідження показало, що можливо отруїти 0,01% зразків навчальної вибірки за допомогою існуючих інструментів. Це може здатися незначним, але рівень отруєння в розмірі 0,001% може назавжди змінити вивід. Користувачі можуть отримати доступ до близько 30% зразків будь-якої даної LLM, що робить корупцію дивовижно легкою.

Реальні випадки використання AI у суді

AI міг би бути вигідним для юридичних фахівців та осіб, які представляють себе в суді. Однак більшість реальних прикладів, які привертають увагу, не є сприятливими. Через поширені стурбованість щодо юридичних та етичних наслідків AI у судових залах, найгірші приклади привертають найбільшу увагу.

У травні 2025 року федеральний суддя Майкл Вілнер хотів дізнатися більше про аргументи деяких юристів у поданні. Однак статті, на які вони посилалися, не існували. Після того, як їх попросили надати більше подробиць, вони надіслали нове подання з ще більшою кількістю неточностей, ніж перше.

Коли Вілнер наказав їм дати свідчення під присягою, пояснюючи помилки, вони визнали, що використовували Google’s Gemini та спеціалізовані юридичні моделі AI для написання документа. Суддя застосував санкції на суму 31 000 доларів проти юридичної фірми. Хоча вони не ввели конфіденційну або не публічну інформацію, вони все одно марно витратили час суду.

Це не тільки юристи та позивачі, хто неправильно використовує AI. У 2025 році два федеральних судді США відкликали свої рішення після того, як було виявлено, що їхній персонал суду використовував інструменти AI для юридичних досліджень, що призвело до помилкових, “галюцинаційних” цитат справ. Хоча вони звинуватили у помилкових рішеннях AI, проте це їхня відповідальність читати справу, на яку вони посилаються.

Це не окремі випадки, які висвітлюють невеликі, маловідомі місцеві юридичні фірми — це відомі юристи та федеральні судді, які роблять прикрі, непотрібні помилки. Вина не лежить виключно на інтелектуальних алгоритмах. У кінцевому підсумку AI — це просто інструмент. Чи буде його вплив позитивним чи негативним, залежить від користувача.

Як система правосуддя повинна використовувати AI

Відкрито доступні LLM є ризиками для точності та безпеки, які чекають на свою можливість. Домен-специфічні моделі генерації з підтримкою пошуку (RAG) пропагуються як рішення для “галюцинацій” AI, оскільки вони витягують відповідні дані з зовнішніх довірених баз знань перед генерацією відповіді.

Однак модель RAG не є срібною кулею, оскільки право не складається цілком з незаперечних, верифікованих фактів. Присяжні можуть бути переконані харизматичними юристами. Судді пишуть висновки, щоб пояснити підстави своїх рішень. Закони відрізняються між країнами, штатами та місцевостями. Є місце для помилок у цій сірій зоні.

Право часто залежить від інтерпретації — саме тому існують юристи та судді. Люди не можуть очікувати, що AI буде непогрішимою авторитетом у цій сфері. Хоча використання RAG є кроком у правильному напрямку, забезпечення безперервного нагляду з підходом “людина в циклі” є ключовим.

Як AI буде використовуватися у майбутніх судових залах?

Суди покладаються на відповідну документацію, підтверджену точними цитатами. Хоча AI широко采用юється парALEGALами та юристами для збереження часу та зусиль на адміністративних завданнях, він усе ще бореться з витягуванням цих відомостей.

“Галюцинації” AI не є винятковими для судових зал США. У одному випадку у Великій Британії позивач вимагав майже 120 мільйонів доларів компенсації від Qatar National Bank. Суд виявив, що 40% їхніх цитат законодавства були цілком вигаданими. Навіть реальні справи були наповнені фальшивими цитатами. Врешті-решт позивач визнав, що використовував інструменти AI для юридичних досліджень.

Хоча їхня справа могла бути солідною, “галюцинації” AI нашкодили їхній репутації та авторитету, потенційно вплинувши на результат проти них. Щоб уникнути подібних помилок у майбутньому, право повинно наздогнати AI.

Правила, що регулюють використання AI та нагляд, повинні бути детальними та надійними. Судові зали з “вербальними угодами” ймовірно виявлять, що персонал суду продовжує використовувати AI. Як відомо юридичним фахівцям, правила вимагають механізму виконання. Дисциплінарні заходи та санкції допоможуть фахівцям зрозуміти серйозність безпечного та етичного використання AI.

Срібна підкладка використання AI у судових залах

Ці високі ризики помилок піднімають подальші питання про цілісність досліджень. Чи випадково інструменти AI виявили, що юристи не перевіряють юридичні дослідження, а судді реєструють неверифіковані чернетки? Хоч би що, AI стає частиною системи правосуддя. Як і будь-який інший інструмент, його вплив залежить від того, як його використовують. Срібна підкладка полягає в тому, що навіть прикрі помилки дають фахівцям керівництво щодо того, чого не слід робити.

Zac Amos є технічним письменником, який зосереджується на штучному інтелекті. Він також є редактором рубрики у ReHack, де ви можете прочитати більше його робіт.