Connect with us

Kunstmatige intelligentie

Hoe Kunstmatige Intelligentie Wordt Gebruikt in de Rechtbank

mm
Closeup of a judge's gavel in a courtroom.

Elke dag voeren verschillende justitieprofessionals juridisch onderzoek uit, communiceren met cliënten, beheren rechtszaken en interpreteren de wet. Hun werk is essentieel voor een veilige en functionerende samenleving, waardoor velen geïnteresseerd zijn in de belofte van een hogere productiviteit. Advocaten — vooral openbare verdedigers — hebben vaak enorme caseloads. Rechters schrijven afwijkende meningen die toekomstige juridische procedures kunnen vertroebelen. Regels en statuten veranderen voortdurend. Binnen dit complexe systeem is kunstmatige intelligentie (AI) opgekomen als een middel om tijdrovende administratieve processen te automatiseren. 

Alledaagse Toepassingen van AI in de Rechtbank

Een groot deel van de werkweek van een advocaat wordt besteed aan tijdrovende administratieve taken, en niet aan het overtuigen van jury’s in de rechtszaal. Zij besteden 80% van hun tijd aan het verzamelen van informatie en slechts 20% aan analyse en implicaties. Om zaken op te bouwen, moeten zij zorgvuldig alle relevante rechtszaken, regels en statuten doorzoeken. AI kan dergelijke taken stroomlijnen en hen ontelbare uren besparen. 

AI-assistenten kunnen advocaten helpen hun schema’s te optimaliseren en hun caseloads te beheren, waardoor problemen met de planning van zittingen worden overwonnen. Generatieve AI kan hen en hun personeel helpen bij juridisch onderzoek. Rechters kunnen algoritme-gebaseerde risicobeoordelingsinstrumenten raadplegen bij het nemen van beslissingen over borgtocht. 

Het instrument kan ook andere juridische professionals helpen. Natuurlijke taalverwerkingmodellen kunnen stenografen helpen met transcriptie, terwijl grote taalmodellen (LLM’s) tolken kunnen helpen met vertaling. Generatieve AI kan documenten opstellen, communicatie met cliënten automatiseren of dossiers voor paralegals en juridische assistenten organiseren. 

Voordelen van het Integreren van AI in Rechtsfuncties

AI kan tijdrovende, repetitieve taken versnellen, waardoor professionals meer tijd hebben voor belangrijke of tijdsgevoelige zaken. Dit zou vooral gunstig zijn voor openbare verdedigers, die elk jaar honderden zaken en beroepen behandelen. Gemiddeld besteden zij 13,5 tot 286 uur per zaak aan het vertegenwoordigen van verdachten. 

Juridische professionals zijn niet de enigen die kunnen profiteren van het gebruik van AI. Eisers die zichzelf in de rechtbank vertegenwoordigen, kunnen juridisch advies zoeken bij AI-chatbots. 

AI kan juridische vertegenwoordiging toegankelijker maken voor benadeelde en ondervertegenwoordigde bevolkingsgroepen. Advocatenkantoren kunnen het gebruiken om pro bono-juridische diensten aan te bieden aan mensen met een laag inkomen. Aangezien één model tegelijkertijd met duizenden of zelfs miljoenen mensen kan communiceren, kan het schalen naarmate het advocatenkantoor groeit. 

Juridische en Ethische Bezwaren in Verband met AI

Hoewel AI gunstig kan zijn voor eisers, advocaten, rechters en tolken, kan misbruik leiden tot onjuiste juridische oordelen. In 2024 ontdekte Stanford’s Institute for Human-Centered AI dat state-of-the-art LLM’s een hallucinatiesnelheid van 69% tot 88% hebben bij het beantwoorden van juridische vragen.

LLM’s produceren vaak met vertrouwen onjuiste of fictieve informatie. Ze kunnen bijvoorbeeld niet-bestaande rechtszaken citeren of citaten fabriceren bij het uitvoeren van juridisch onderzoek. Ondanks dat ze plausibel lijken, zijn deze hallucinaties onjuist. 

Opzettelijke misleiding is ook mogelijk, gezien de kracht van generatieve AI. Een eiser kan het gebruiken om een inbraak te simuleren door een thuisbeveiligingsvideo te genereren die de verdachte laat zien terwijl hij zijn bezittingen steelt. Dit voorbeeld is niet geheel hypothetisch, aangezien deepfakes al in de rechtbank zijn gebruikt. 

In de VS 80% van de rechtszaken hangt af van video — waaronder bodycam-beelden, mobiele telefoonopnames of bewakingsclips — in enige mate. Dit is waarom juridische professionals diep bezorgd zijn over deepfakes. In september 2025 verwierp een rechter een civiele zaak nadat hij had vastgesteld dat een videogedeelte van een getuigenis een deepfake was. 

Slechte actoren kunnen AI-juridische onderzoekstools aanvallen om het justitiesysteem te verstoren. Onderzoek toont aan dat het mogelijk is om 0,01% van de samples in een trainingsdataset te vergiftigen met bestaande tools. Dat lijkt misschien onbeduidend, maar een vergiftigingsgraad van slechts 0,001% kan de uitvoer permanent veranderen. Gebruikers kunnen toegang krijgen tot ongeveer 30% van de samples in een bepaalde LLM, waardoor corruptie verrassend eenvoudig is. 

Echte Rechtszaken waarin AI in de Rechtbank werd Gebruikt

AI kan gunstig zijn voor juridische professionals en individuen die zichzelf in de rechtbank vertegenwoordigen. Helaas zijn de meeste echte voorbeelden die de kranten halen, niet gunstig. Vanwege de wijdverbreide bezorgdheid over de juridische en ethische implicaties van AI in de rechtbank, krijgen de slechtste voorbeelden de meeste aandacht. 

In mei 2025 wilde federale rechter Michael Wilner meer te weten komen over de argumenten die sommige advocaten in een indiening hadden aangevoerd. Echter, de artikelen die zij citeerden, bestonden niet. Na onder druk te zijn gezet om meer details te geven, leverden zij een nieuwe memorie in met meer onnauwkeurigheden dan de eerste. 

Toen Wilner hen opdroeg om onder ede te getuigen over de fouten, gaven zij toe dat zij Google’s Gemini en specifieke AI-modellen voor advocaten hadden gebruikt om het document te schrijven. De rechter legde boetes op van in totaal $31.000 tegen het advocatenkantoor. Ondanks dat zij geen vertrouwelijke of niet-openbare informatie hadden ingevoerd, verspilden zij toch de tijd van de rechtbank. 

Het zijn niet alleen advocaten en eisers die AI misbruiken. In 2025 trokken twee Amerikaanse federale rechters hun uitspraken in nadat het was ontdekt dat hun rechtbankpersoneel AI-tools had gebruikt voor juridisch onderzoek, met als resultaat foutieve, hallucinatie-geproduceerde rechtszaken. Hoewel zij de foutieve uitspraken aan AI verweten, is het hun verantwoordelijkheid om de zaak die zij citeren te lezen. 

Dit zijn geen eenmalige zaken die kleine, obscure lokale advocatenkantoren belichten — dit zijn grote advocaten en federale rechters die beschamende, vermijdbare fouten maken. De schuld valt niet alleen bij intelligente algoritmes. Uiteindelijk is AI slechts een instrument. Of het al dan niet gunstig is, hangt af van de gebruiker. 

Hoe het Justitiesysteem AI Moet Gebruiken

Openbaar beschikbare LLM’s vormen risico’s voor nauwkeurigheid en beveiliging die op het punt staan te gebeuren. Domeinspecifieke retrieval-gegenereerde generatiemodellen (RAG) worden gepromoot als een oplossing voor AI-hallucinaties omdat zij relevante gegevens uit externe, betrouwbare kennisbases ophalen voordat zij een antwoord genereren.

Echter, is een RAG-model geen zilveren kogel, omdat de wet niet geheel bestaat uit onbetwiste, verifieerbare feiten. Jury’s worden beïnvloed door charismatische advocaten. Rechters schrijven meningen om de redenering achter hun uitspraken uit te leggen. Wetten verschillen tussen landen, staten en lokale overheden. Er is ruimte voor fouten in deze grijze zone. 

De wet is vaak onderhevig aan interpretatie — dit is waarom advocaten en rechters in de eerste plaats bestaan. Mensen kunnen niet verwachten dat AI een onfeilbare autoriteit op het onderwerp is. Hoewel het gebruik van RAG een stap in de goede richting is, is het waarborgen van continue toezicht met een mens-in-de-lus-benadering essentieel. 

Hoe AI in Toekomstige Rechtbanken zal Worden Gebruikt

Rechtbanken vertrouwen op relevante documentatie die wordt ondersteund door nauwkeurige citaten. Ondanks dat het wijd wordt gebruikt door paralegals en advocaten om tijd en moeite te besparen bij administratieve taken, heeft AI nog steeds moeite met het ophalen van deze informatie. 

AI-hallucinaties zijn niet exclusief voor Amerikaanse rechtbanken. In een zaak in het Verenigd Koninkrijk eiste de eiser bijna $120 miljoen aan schadevergoeding van Qatar National Bank. De rechtbank ontdekte dat 40% van hun rechtszaken volledig fictief waren. Zelfs de echte zaken waren vol met valse citaten. Uiteindelijk gaf de eiser toe dat hij AI-tools had gebruikt voor juridisch onderzoek. 

Zelfs als hun zaak solide was, hebben AI-hallucinaties hun geloofwaardigheid en reputatie beschadigd, wat mogelijk de uitkomst tegen hen heeft beïnvloed. Om dergelijke blunders in de toekomst te voorkomen, moet de wet zich aanpassen aan AI. 

Regels die het gebruik en toezicht op AI regelen, moeten gedetailleerd en robuust zijn. Rechtbanken met “mondelinge overeenkomsten” zullen waarschijnlijk personeel vinden dat nog steeds AI gebruikt. Zoals juridische professionals weten, vereisen regels een handhavingsmechanisme. Disciplinaire maatregelen en sancties zullen professionals helpen de ernst van veilig en ethisch AI-gebruik te begrijpen.

De Zilveren Lijn van AI-gebruik in de Rechtbank

Deze hoge-stakesfouten roepen verdere vragen op over de integriteit van onderzoek. Hebben AI-tools onbewust aangetoond dat advocaten juridisch onderzoek niet verifiëren en rechters ongeverifieerde ontwerpen inplannen? Beter of slechter, AI wordt onderdeel van het justitiesysteem. Net als elk ander instrument hangt het af van de gebruiker of de impact positief of negatief is. De zilveren lijn is dat zelfs beschamende blunders professionals een handleiding geven over wat niet te doen.

Zac Amos is een tech-schrijver die zich richt op kunstmatige intelligentie. Hij is ook de Features Editor bij ReHack, waar u meer van zijn werk kunt lezen.