Kunstig intelligens
Hvordan Kunstig Intelligens Bruges i Retssalen
Hver dag udfører forskellige retssystemprofessionelle juridisk forskning, kommunikerer med klienter, administrerer retssager og fortolker loven. Deres arbejde er grundlæggende for et sikkert og fungerende samfund, hvilket er hvorfor mange er fascinerede af løftet om højere produktivitet. Advokater – især offentlige forsvarere – har ofte enorme sagsmængder. Dommere skriver dissentende meninger, der kan gøre fremtidige retslige procedurer uklare. Regler og love ændrer sig konstant. Inden for dette komplekse system er kunstig intelligens (AI) dukket op som et middel til at automatisere tidskrævende administrative processer.
Almindelige Anvendelser af AI i Retssalen
Meget af en advokats arbejdsuge går med på tidskrævende administrative opgaver, ikke med at overbevise juryer i retssalen. De bruger 80% af deres tid på at indsamle information og kun 20% på analyse og konsekvenser. For at bygge sager må de grundigt gennemgå retsregler, regler og love. AI kunne strømlinje sådanne opgaver og spare dem utallige timer.
AI-assistenter kan hjælpe advokater med at optimere deres kalendere og administrere sagsmængder, overvinde docketing-problemer. Generativ AI kan hjælpe dem og deres personale med juridisk forskning. Dommere kan konsultere algoritme-baserede risikovurderingsværktøjer, når de træffer beslutninger om kaution.
Værktøjet kan også hjælpe andre juridiske fagfolk. Naturlig sprogbehandlingsmodeller kan hjælpe stenografer med transskription, mens store sprogmodeller (LLM’er) kan hjælpe tolke med oversættelse. Generativ AI kan udarbejde dokumenter, automatisere kommunikation med klienter eller organisere sagfiler for paralegals og juridiske assistenter.
Fordele ved at Integrere AI i Retsfunktioner
AI kan accelerere tidskrævende, repetitive opgaver og frigøre professionelle til mere vigtige eller tidskritiske sager. Dette ville være særligt fordelagtigt for offentlige forsvarere, der håndterer hundredvis af sager og appeller hvert år. I gennemsnit bruger de mellem 13,5 til 286 timer pr. sag på at repræsentere sagsøgte.
Juridiske fagfolk er ikke de eneste, der kan have glæde af at bruge AI. Sagsøgte, der selv repræsenterer sig i retten, kan søge juridisk vejledning fra AI-chatbots.
AI kan gøre juridisk repræsentation mere tilgængelig for underprivilegerede og underrepræsenterede befolkningsgrupper. Advokatfirmaer kan bruge det til at tilbyde pro bono-juridiske tjenester til lavindkomstpersoner. Da en model kan interagere med tusinder eller endda millioner af mennesker samtidigt, kan den skaleres, efterhånden som advokatfirmaet udvides.
Juridiske og Ethiske Bekymringer i Forbindelse med AI
Selvom AI kan være fordelagtigt for sagsøgte, advokater, dommere og tolke, kan misbrug føre til fejlbehæftede juridiske afgørelser. I 2024 fandt Stanfords Institute for Human-Centered AI, at state-of-the-art LLM’er havde en hallucinationsrate på 69% til 88% i svarene på juridiske spørgsmål.
LLM’er udskriver ofte fejlbehæftede eller fiktive oplysninger med stor sikkerhed. F.eks. kan de citerer ikke-eksisterende retsregler eller fabrikere citater, når de udfører juridisk forskning. Trods at de ser plausible ud, er disse hallucinationer ukorrekte.
Intentionel bedrag er også muligt, givet den kraft, generativ AI har. En sagsøgt kunne bruge det til at fabrikere et indbrud ved at generere en video, der viser, at den anklagede stjæler deres ejendom. Dette eksempel er ikke helt hypotetisk, da deepfakes allerede er blevet brugt i retssalen.
I USA 80% af retssager afhænger af video – herunder bodycam-optagelser, mobiltelefonskærmbilleder eller overvågningsklip – til en vis grad. Det er derfor, at juridiske fagfolk er dybt bekymrede for deepfakes. I september 2025 kasserede en dommer en civil sag, efter at have fastslået, at en videotape af en vidnes udsagn var en deepfake.
Uærlige aktører kunne målrette AI-juridiske forskningsværktøjer for at forstyrre retssystemet. Forskning viser, at det er muligt at forgifte 0,01% af træningsdatasættets eksempler med eksisterende værktøjer. Det kan synes ubetydeligt, men en forgiftningssats så lav som 0,001% kan permanent ændre output. Brugere kan få adgang til omkring 30% af eksemplerne i en given LLM, hvilket gør korruption overraskende let.
Virkelige Sager, hvor AI er Brugt i Retten
AI kunne være fordelagtigt for juridiske fagfolk og personer, der selv repræsenterer sig i retten. Imidlertid er de fleste virkelige eksempler, der skaber overskrifter, ikke positive. Pga. den omfattende bekymring for de juridiske og etiske implikationer af AI i retssalen, får de værste eksempler mest opmærksomhed.
I maj 2025 ønskede den føderale dommer Michael Wilner at lære mere om de argumenter, nogle advokater havde fremlagt i en indgivelse. Imidlertid eksisterede de artikler, de citerede, ikke. Efter at være blevet presset på at give flere detaljer, leverede de en ny indgivelse med flere ukorrekte oplysninger end den første.
Da Wilner beordrede dem til at afgive edsvorne forklaringer om fejlene, indrømmede de, at de havde brugt Googles Gemini og lovspecifikke AI-modeller til at skrive dokumentet. Dommeren pålagde sanktioner på i alt 31.000 dollars mod advokatfirmaet. Selv om de ikke indtastede fortrolige eller ikke-offentlige oplysninger, spildte de alligevel rettens tid.
Det er ikke kun advokater og sagsøgte, der misbruger AI. I 2025 trak to føderale distriktsdommere deres afgørelser tilbage efter at det var blevet opdaget, at deres retspersonale havde brugt AI-værktøjer til juridisk forskning, hvilket resulterede i fejlbehæftede, hallucinerede retscitationer. Selv om de skyldte de fejlbehæftede afgørelser på AI, er det deres ansvar at læse den sag, de citerer.
Disse er ikke enestående sager, der fremhæver små, obskure lokale advokatfirmaer – disse er store advokater og føderale dommere, der begår pinlige, undgåelige fejl. Skylden falder ikke kun på intelligente algoritmer. Til sidst er AI kun et værktøj. Om det er fordelagtigt eller ej, afhænger af brugeren.
Hvorledes Retssystemet Bør Bruge AI
Offentligt tilgængelige LLM’er er en risiko for nøjagtighed og sikkerhed, der venter på at ske. Domænespecifik opbevaring af genereret generering (RAG)-modeller fremmes som en løsning på AI-hallucinationer, da de henter relevante data fra eksterne, troværdige videnbasarer, før de genererer et svar.
En RAG-model er imidlertid ikke en mirakelkur, fordi loven ikke udelukkende består af uafviselige, verificerbare fakta. Juryer påvirkes af karismatiske advokater. Dommere skriver meninger for at forklare begrundelsen bag deres afgørelser. Love varierer mellem lande, stater og lokale myndigheder. Der er plads til fejl i dette grå område.
Loven er ofte op til fortolkning – det er derfor, advokater og dommere findes fra begyndelsen. Mennesker kan ikke forvente, at AI er en ufejlbar autoritet på emnet. Selv om brugen af RAG er et skridt i den rigtige retning, er det afgørende at sikre kontinuerlig tilsyn med en menneske-i-løkken-tilgang.
Hvorledes Vil AI Blive Brugt i Fremtidens Retssale?
Retssale afhænger af relevante dokumenter, der understøttes af nøjagtige citationer. Selv om AI er blevet bredt accepteret af paralegals og advokater til at spare tid og indsats på administrative opgaver, kæmper AI stadig med at hente disse oplysninger.
AI-hallucinationer er ikke eksklusive for amerikanske retssale. I en sag i Storbritannien søgte sagsøgten omkring 120 millioner dollars i erstatning mod Qatar National Bank. Retten fandt, at 40% af deres retscitationer var helt fiktive. Selv de virkelige sager var fyldt med fiktive citater. Til sidst indrømmede sagsøgten, at de havde brugt AI-værktøjer til juridisk forskning.
Selv om deres sag var solid, skadede AI-hallucinationerne deres troværdighed og rygte og kunne have påvirket udfaldet imod dem. For at undgå lignende fejl i fremtiden må loven følge med AI.
Reglerne for AI-brug og tilsyn må være detaljerede og robuste. Retssale med “verbale forståelser” vil sandsynligvis finde, at personalet stadig bruger AI. Som juridiske fagfolk ved, kræver regler en gennemføringmekanisme. Disciplinære foranstaltninger og sanktioner vil hjælpe fagfolk med at forstå alvoren ved en sikker og etisk brug af AI.
Sølvkanten ved AI-brug i Retssalen
Disse højrisikofejl stiller yderligere spørgsmål om forskningens integritet. Har AI-værktøjer utilsigtet afsløret, at advokater ikke verificerer juridisk forskning, og at dommere docketing ikke-verificerede udkast? For bedre eller værre bliver AI en del af retssystemet. Ligesom ethvert andet værktøj afhænger det, om det er positivt eller negativt, af hvordan det bruges. Sølvkanten er, at selv pinlige fejl giver fagfolk en vejledning om, hvad de ikke skal gøre.












