Kunstig intelligens
Hvordan kunstig intelligens brukes i rettssalen
Hver dag utfører forskjellige rettssystemprofesjonelle juridisk forskning, kommuniserer med klienter, håndterer rettssaker og tolker loven. Deres arbeid er grunnleggende for et trygt og fungerende samfunn, som er hvorfor mange er fascinert av løftet om høyere produktivitet. Advokater — spesielt offentlige forsvarere — har ofte enorme saksmengder. Dommere skriver dissens mening som kan gjøre fremtidige rettslige prosedyrer uklare. Reguleringer og lover endrer seg konstant. Innenfor dette komplekse systemet har kunstig intelligens (AI) oppstått som et middel for å automatisere tidskrevende administrative prosesser.
Hverdagsapplikasjoner for AI i rettssalen
Mye av en advokats arbeidsuke går med på tidskrevende administrative oppgaver, ikke på å overbevise juryer i rettssalen. De bruker 80% av sin tid på å samle informasjon og bare 20% på analyse og implikasjoner. For å bygge saker, må de nøye gå gjennom rettspraksis, reguleringer og lover. AI kunne strømlinjeforme slike oppgaver og spare dem talløse timer.
AI-assistenter kan hjelpe advokater å optimalisere tidsskjemaer og håndtere saksmengder, overvinne docketing-problemer. Generativ AI kan hjelpe dem og deres personale med juridisk forskning. Dommere kan konsultere algoritmbaserte risikovurderingsverktøy når de tar beslutninger om kausjon.
Verktøyet kan også hjelpe andre juridiske fagpersoner. Naturligspråklig prosessering kan hjelpe stenografer med transkripsjon, mens store språkmodeller (LLM) kan assistere tolkere med oversettelse. Generativ AI kan utarbeide dokumenter, automatisere kommunikasjon med klienter eller organisere sakfiler for juridiske assistenter og kontorpersonale.
Fordelene med å integrere AI i rettsfunksjoner
AI kan akselerere tidskrevende, repetitive oppgaver, frigjøre fagpersoner for viktigere eller mer tidskritiske saker. Dette ville være spesielt fordelerikt for offentlige forsvarere, som håndterer hundrevis av saker og anker hvert år. I gjennomsnitt bruker de 13,5 til 286 timer per sak på å representere klienter.
Juridiske fagpersoner er ikke de eneste som kan dra nytte av å bruke AI. Saksøkere som representerer seg selv i retten, kan søke juridisk veiledning fra AI-chatbots.
AI kan gjøre juridisk representasjon mer tilgjengelig for underprivilegerte og underrepresenterte befolkningsgrupper. Advokatfirmaer kan bruke det til å tilby pro bono-tjenester til lavinntektspersoner. Ettersom en modell kan engasjere seg med tusenvis eller til og med millioner av personer samtidig, kan den skaleres etter at advokatfirmaet utvides.
Rettslige og etiske bekymringer forbundet med AI
Selv om AI kan være nyttig for saksøkere, advokater, dommere og tolkere, kan misbruk føre til feilaktige juridiske avgjørelser. I 2024 fant Stanfords institutt for menneske-sentrert AI ut at state-of-the-art LLM har en hallusinasjonsrate på 69% til 88% i respons til juridiske spørsmål.
LLM utsteder ofte feilaktig eller fiktiv informasjon med stor sikkerhet. For eksempel kan de sitere ikke-eksisterende rettspraksis eller fabrikkere sitater når de utfører juridisk forskning. Til tross for at de ser plausibelt ut, er disse hallusinasjonene uakkurate.
Intensjonal bedrageri er også mulig, gitt den kraften i generativ AI. En saksøker kan bruke det til å fabrikke et innbrudd ved å generere en hjemmesikkerhetsvideo som viser den anklagede stjeler deres eiendom. Dette eksemplet er ikke helt hypotetisk, ettersom deepfakes allerede er blitt brukt i rettssalen.
I USA 80% av rettssaker henger sammen med video — inkludert bodycam-opptak, mobiltelefonopptak eller overvåkingsklipp — til en viss grad. Dette er hvorfor juridiske fagpersoner er dypt bekymret for deepfakes. I september 2025, kastet en dommer ut en sivilsak etter å ha bestemt at en videotatt vitneutsagn var en deepfake.
Uærlige aktører kunne målrette AI-juridiske forskningstjenester for å forstyrre rettssystemet. Forskning viser at det er mulig å forgifte 0,01% av en treningsdatasets eksempler med eksisterende verktøy. Det kan se ut som en ubetydelig ting, men en forgiftning på så lavt som 0,001% kan permanent endre utgangen. Brukere kan få tilgang til rundt 30% av eksemplene i en gitt LLM, noe som gjør korruptering overraskende enkelt.
Virkelige saker der AI ble brukt i retten
AI kunne være fordelerikt for juridiske fagpersoner og personer som representerer seg selv. Imidlertid er de fleste virkelige eksemplene som får oppmerksomhet, ikke gunstige. På grunn av vidt utbredt bekymring om de rettslige og etiske implikasjonene av AI i rettssalen, får de verste eksemplene mest oppmerksomhet.
I mai 2025, ønsket den føderale dommer Michael Wilner å lære mer om argumentene noen advokater hadde fremmet i en innlevering. Imidlertid eksisterte ikke artiklene de siterte. Etter å ha blitt presset for mer detaljer, leverte de en ny innlevering med flere uakkurate enn den første.
Da Wilner beordret dem å gi edsvor forklaringer om feilene, innrømmet de at de hadde brukt Googles Gemini og lovspesifikke AI-modeller til å skrive dokumentet. Dommeren påla advokatfirmaet en bot på 31 000 dollar, selv om de ikke hadde inputtet konfidensiell eller ikke-offentlig informasjon, hadde de likevel spilt bort rettens tid.
Det er ikke bare advokater og saksøkere som misbruker AI. I 2025, to amerikanske føderale distriktsdommere trakk tilbake avgjørelser etter at det ble oppdaget at deres rettspersonale hadde brukt AI-verktøy for juridisk forskning, noe som resulterte i feilaktige, hallusinerte saksitater. Selv om de skyldte på feilaktige avgjørelser på AI, er det deres ansvar å lese saken de siterte.
Disse er ikke enkelttilfeller som fremhever små, obskure lokale advokatfirmaer — disse er store advokater og føderale dommere som gjør pinlige, unngåelige feil. Skylden faller ikke kvadratisk på intelligente algoritmer heller. Til slutt er AI bare et verktøy. Uansett om det er nyttig eller ikke, avhenger av brukeren.
Hvordan rettssystemet bør bruke AI
Offentlig tilgjengelige LLM er risikoer for nøyaktighet og sikkerhet som venter på å skje. Domænespesifikke gjenvinningsforsterkede genereringsmodeller (RAG) fremmes som en løsning for AI-hallusinasjoner fordi de henter relevante data fra eksterne, pålitelige kunnskapsbasier før de genererer en respons.
Imidlertid er en RAG-modell ikke en sølvbulett fordi loven ikke består av uangribelige, verifiserbare fakta. Juryer blir overbevist av karismatiske advokater. Dommere skriver meninger for å forklare grunnene bak deres avgjørelser. Lover varierer mellom land, stater og lokale myndigheter. Det er rom for feil i dette gråsonen.
Loven er ofte åpen for tolkning — dette er hvorfor advokater og dommere eksisterer fra første sted. Mennesker kan ikke forvente at AI er en ufeilbar autoritet på emnet. Selv om bruk av RAG er et skritt i riktig retning, er det viktig å sikre kontinuerlig tilsyn med en menneske-i-løkken-tilnærming.
Hvordan vil AI bli brukt i fremtidens rettssaler?
Rettssaler avhenger av relevante dokumenter som støttes av nøyaktige sitater. Til tross for at de er vidt akseptert av juridiske assistenter og advokater for å spare tid og anstrengelse på administrative oppgaver, sliter AI fortsatt med å hente denne informasjonen.
AI-hallusinasjoner er ikke eksklusive for amerikanske rettssaler. I en sak i Storbritannia, søkte saksøkeren om nær 120 millioner dollar i skadeerstatning mot Qatar National Bank. Retten fant ut at 40% av deres saksitater var fullstendig fiktive. Selv de virkelige sakene var fylt med feilaktige sitater. Til slutt innrømmet saksøkeren å ha brukt AI-verktøy for juridisk forskning.
Selv om deres sak var solid, skadet AI-hallusinasjoner deres troverdighet og omdømme, og kunne potensielt påvirke utfallet mot dem. For å unngå lignende feil i fremtiden, må loven holde tritt med AI.
Regler som styrer AI-bruk og tilsyn må være detaljerte og robuste. Rettssaler med “muntlige forståelser” vil sannsynligvis finne at personalet fortsatt bruker AI. Som juridiske fagpersoner vet, krever regler en gjennomføringsmekanisme. Disiplinær tiltak og bøter vil hjelpe fagpersoner å forstå alvoret i trygg og etisk AI-bruk.
Sølvkanten ved AI-bruk i rettssalen
Disse høyrisk feilene reiser videre spørsmål om forskningsintegritet. Har AI-verktøy ufrivillig avdekket at advokater ikke verifiserer juridisk forskning og dommere docketer uverifiserte utkast? For bedre eller verre, blir AI en del av rettssystemet. Som ethvert annet verktøy, avhenger det omvendt om hvordan det brukes. Sølvkanten er at selv pinlige feil gir fagpersoner en guide på hva ikke å gjøre.












