Connect with us

Cum este utilizată Inteligența Artificială în sala de judecată

Inteligență artificială

Cum este utilizată Inteligența Artificială în sala de judecată

mm
Closeup of a judge's gavel in a courtroom.

În fiecare zi, diverse profesioniști din sistemul de justiție efectuează cercetări juridice, comunică cu clienții, gestionează cazuri și interpretează legea. Munca lor este fundamentală pentru o societate sigură și funcțională, ceea ce explică de ce mulți sunt interesați de promisiunea unei productivități mai mari. Avocații — în special apărătorii publici — au adesea o încărcătură enormă de cazuri. Judecătorii scriu opinii separate care pot încurca apele pentru procedurile legale viitoare. Reglementările și statutele se schimbă în mod constant. În acest sistem complex, inteligența artificială (IA) a apărut ca o modalitate de a automatiza procesele administrative care consumă timp.

Aplicarea zilnică a IA în sala de judecată

O mare parte a săptămânii de muncă a unui avocat este petrecută cu sarcini administrative care consumă timp, nu cu a convinge juriile în săli de judecată. Ei petrec 80% din timpul lor strângând informații și doar 20% cu analiza și implicațiile. Pentru a construi cazuri, ei trebuie să cerceteze cu atenție legislația, reglementările și statutele. IA ar putea simplifica astfel de sarcini, economisindu-le ore nesfârșite.

Asistenții IA pot ajuta avocații să-și optimizeze programul și să-și gestioneze încărcătura de cazuri, depășind problemele de dosar. IA generativă poate ajuta și personalul lor să efectueze cercetări juridice. Judecătorii pot consulta instrumente de evaluare a riscului algoritmice atunci când iau decizii cu privire la cauțiune.

Instrumentul poate ajuta și alți profesioniști din domeniul juridic. Modelele de procesare a limbajului natural pot ajuta stenografii cu transcrierea, în timp ce modelele de limbaj mare (LLM) pot ajuta interpreterii cu traducerea. IA generativă poate redacta documente, automatiza comunicarea cu clienții sau organiza fișierele de caz pentru paralegli și asistenți juridici.

Beneficiile integrării IA în funcțiile judiciare

IA poate accelera sarcinile care consumă timp și repetitive, eliberând profesioniștii pentru chestiuni mai importante sau mai urgente. Acest lucru ar fi deosebit de avantajos pentru apărătorii publici, care gestionează sute de cazuri și apeluri în fiecare an. În medie, ei petrec între 13,5 și 286 de ore pe caz reprezentând inculpații.

Profesioniștii din domeniul juridic nu sunt singurii care pot beneficia de utilizarea IA. Părțile care se reprezintă singure în instanță pot solicita îndrumări juridice de la chatbot-urile IA.

IA poate face reprezentarea juridică mai accesibilă pentru populațiile defavorizate și subreprezentate. Cabinetele de avocatură pot utiliza IA pentru a oferi servicii juridice pro bono persoanelor cu venituri mici. Deoarece un model poate interacționa cu mii sau chiar milioane de oameni simultan, poate fi extins pe măsură ce cabinetul de avocatură se extinde.

Problemele juridice și etice asociate cu IA

Deși IA poate fi benefică pentru reclamanți, avocați, judecători și interpreți, utilizarea necorespunzătoare ar putea duce la erori judiciare. În 2024, Institutul pentru Inteligență Artificială Centrată pe Om de la Stanford a constatat că modelele de limbaj mare de ultimă generație au o rată de halucinație de 69% până la 88% la întrebări juridice.

Modelele LLM oferă adesea informații defectuoase sau fictive cu încredere. De exemplu, pot cita legislație inexistentă sau inventa citate atunci când efectuează cercetări juridice. În ciuda aparenței plauzibile, aceste halucinații sunt inexacte.

Decepția intenționată este, de asemenea, posibilă, dată fiind puterea IA generativă. Un reclamant ar putea utiliza IA pentru a simula o spargere prin generarea unei înregistrări video de securitate care îl arată pe inculpat furând bunurile sale. Acest exemplu nu este complet ipotetic, deoarece deepfake-urile au fost deja utilizate în sala de judecată.

În Statele Unite, 80% din cazurile din instanță se bazează pe video — inclusiv înregistrări de la camere de corp, înregistrări de la telefoane mobile sau clipuri de supraveghere — într-o oarecare măsură. Acesta este motivul pentru care profesioniștii din domeniul juridic sunt profund îngrijorați de deepfake-uri. În septembrie 2025, un judecător a respins un caz civil după ce a stabilit că o mărturie video a unui martor era un deepfake.

Actorii răi ar putea ținti instrumentele de cercetare juridică IA pentru a perturba sistemul de justiție. Cercetările arată că este posibil să otrăviți 0,01% din exemplele de antrenament cu instrumente existente. Acest lucru poate părea nesemnificativ, dar o rată de otrăvire de 0,001% poate altera permanent ieșirea. Utilizatorii pot accesa aproximativ 30% din exemplele oricărui model LLM, făcând corupția surprinzător de ușoară.

Cazuri din lumea reală în care IA a fost utilizată în instanță

IA ar putea fi avantajoasă pentru profesioniștii din domeniul juridic și pentru persoanele care se reprezintă singure. Cu toate acestea, majoritatea exemplelor din lumea reală care fac titluri nu sunt favorabile. Din cauza preocupărilor generalizate cu privire la implicațiile juridice și etice ale IA în sala de judecată, cele mai grave exemple primesc cea mai mare atenție.

În mai 2025, judecătorul federal Michael Wilner a dorit să afle mai multe despre argumentele pe care anumiți avocați le-au prezentat într-un dosar. Cu toate acestea, articolele pe care le-au citat nu existau. După ce au fost presați pentru mai multe detalii, ei au prezentat un nou memoriu cu mai multe inexactități decât primul.

Când Wilner a dispus să depună mărturie sub jurământ pentru a explica greșelile, ei au admis că au utilizat modelul Gemini de la Google și modelele IA specifice dreptului pentru a scrie documentul. Judecătorul a impus sancțiuni în valoare totală de 31.000 de dolari împotriva cabinetului de avocatură. Chiar dacă nu au introdus informații confidențiale sau nepublice, ei au irosit totuși timpul instanței.

Nu numai avocații și reclamanții folosesc în mod necorespunzător IA. În 2025, doi judecători federali din Statele Unite au retras hotărârile după ce s-a descoperit că personalul instanței a utilizat instrumente IA pentru cercetarea juridică, ceea ce a dus la citări de caz eronate și halucinate. Deși au dat vina pe hotărârile defectuoase pe IA, este responsabilitatea lor să citească cazul pe care îl invocă.

Acesta nu este un caz izolat care prezintă o firmă de avocatură mică și obscură — acestea sunt avocați de mare calibru și judecători federali care fac greșeli jenante și evitabile. Vina nu cade în mod exclusiv pe algoritmii inteligenți, nici pe altcineva. La sfârșitul zilei, IA este doar un instrument. Indiferent dacă impactul său este pozitiv sau negativ depinde de utilizator.

Cum ar trebui să utilizeze sistemul de justiție IA

Modelele LLM disponibile public nu sunt doar riscuri pentru acuratețe și securitate, ci și așteptă să se întâmple. Modelele de generare augmentată de recuperare (RAG) de domeniu sunt promovate ca o soluție pentru halucinațiile IA, deoarece acestea recuperează date relevante din baze de cunoștințe externe de încredere înainte de a genera un răspuns.

Cu toate acestea, un model RAG nu este o soluție magică, deoarece legea nu este alcătuită în întregime din fapte indiscutabile și verificabile. Juriile sunt influențate de avocați carismatici. Judecătorii scriu opinii pentru a explica raționamentul din spatele hotărârilor lor. Legile diferă între țări, state și localități. Există spațiu pentru eroare în această zonă gri.

Legea este adesea supusă interpretării — acesta este motivul pentru care avocații și judecătorii există în primul rând. Oamenii nu pot aștepta ca IA să fie o autoritate infailibilă în acest subiect. Deși utilizarea RAG este un pas în direcția corectă, asigurarea supravegherii continue cu o abordare „om în buclă” este cheia.

Cum va fi utilizată IA în sălile de judecată viitoare

Instanțele se bazează pe documentația relevantă, susținută de citări exacte. În ciuda faptului că este adoptată pe scară largă de către paralegli și avocați pentru a economisi timp și efort în sarcinile administrative, IA se luptă încă cu recuperarea acestor informații.

Halucinațiile IA nu sunt exclusive sălilor de judecată din Statele Unite. Într-un caz din Regatul Unit, reclamantul a solicitat aproape 120 de milioane de dolari în daune împotriva Băncii Naționale din Qatar. Instanța a constatat că 40% din citările de cazuri ale reclamantului erau complet fictive. Chiar și în cazurile reale, erau pline de citate false. În cele din urmă, reclamantul a admis că a utilizat instrumente IA pentru cercetarea juridică.

Chiar dacă cauza lor era solidă, halucinațiile IA au prejudiciat credibilitatea și reputația lor, ceea ce ar putea influența rezultatul împotriva lor. Pentru a evita astfel de gafe în viitor, legea trebuie să țină pasul cu IA.

Regulile care guvernează utilizarea și supravegherea IA trebuie să fie detaliate și robuste. Instanțele cu „înțelegeri verbale” vor găsi probabil personalul care utilizează în continuare IA. Așa cum știu profesioniștii din domeniul juridic, regulile necesită un mecanism de aplicare. Măsurile disciplinare și sancțiunile vor ajuta profesioniștii să înțeleagă gravitatea utilizării sigure și etice a IA.

Latura pozitivă a utilizării IA în sala de judecată

Aceste erori cu un risc ridicat ridică întrebări suplimentare cu privire la integritatea cercetării. Au instrumentele IA dezvăluit în mod neintenționat faptul că avocații nu verifică cercetarea juridică și judecătorii dosarează proiecte neverificate? Mai bine sau mai rău, IA devine parte a sistemului de justiție. Ca orice alt instrument, impactul său depinde de modul în care este utilizat. Latura pozitivă este că chiar și gafele jenante oferă profesioniștilor un ghid despre ce să nu facă.

Zac Amos este un scriitor de tehnologie care se axează pe inteligența artificială. El este, de asemenea, redactor de funcții la ReHack, unde puteți citi mai multe din lucrările sale.