Künstliche Intelligenz
Wie künstliche Intelligenz im Gerichtssaal eingesetzt wird
Täglich führen verschiedene Fachkräfte im Justizsystem juristische Recherchen durch, kommunizieren mit Mandanten, bearbeiten Gerichtsverfahren und interpretieren das Gesetz. Ihre Arbeit ist grundlegend für eine sichere und funktionierende Gesellschaft, weshalb viele von der Aussicht auf höhere Produktivität fasziniert sind. Anwälte – insbesondere Pflichtverteidiger – haben oft ein enormes Arbeitspensum. Richter verfassen abweichende Meinungen, die zukünftige Gerichtsverfahren erschweren können. Verordnungen und Gesetze ändern sich ständig. In diesem komplexen System hat sich künstliche Intelligenz (KI) als Mittel zur Automatisierung zeitaufwändiger Verwaltungsprozesse etabliert.
Alltagsanwendungen von KI im Gerichtssaal
Ein Großteil der Arbeitswoche eines Anwalts besteht aus zeitaufwändigen Verwaltungsaufgaben, nicht aus der Überzeugung von Geschworenen im Gerichtssaal. 80% ihrer Zeit Sie sammeln Informationen und widmen nur 20 % der Analyse und der Abwägung der Folgen. Um Fälle aufzubauen, müssen sie Rechtsprechung, Verordnungen und Gesetze akribisch durchforsten. KI könnte diese Aufgaben effizienter gestalten und ihnen unzählige Stunden ersparen.
KI-Assistenten können Anwälten helfen, ihre Terminplanung zu optimieren und ihre Fallbelastung zu bewältigen, wodurch Probleme bei der Aktenführung gelöst werden. Generative KI kann ihnen und ihren Mitarbeitern bei der juristischen Recherche helfen. Richter können bei Entscheidungen über Kautionen algorithmische Risikobewertungsinstrumente heranziehen.
Das Tool kann auch anderen Juristen helfen. Modelle der natürlichen Sprachverarbeitung können Stenografen bei der Transkription unterstützen, während große Sprachmodelle (LLMs) Dolmetschern bei der Übersetzung helfen können. Generative KI kann Dokumente entwerfen, die Mandantenkommunikation automatisieren oder Fallakten für Rechtsanwaltsfachangestellte und juristische Assistenten organisieren.
Vorteile der Integration von KI in Gerichtsfunktionen
KI kann zeitaufwändige, sich wiederholende Aufgaben beschleunigen und so Fachkräfte für wichtigere oder dringendere Angelegenheiten freistellen. Dies wäre besonders vorteilhaft für Pflichtverteidiger, die jährlich Hunderte von Fällen und Berufungen bearbeiten. Im Durchschnitt verbringen sie zwischen 13.5 bis 286 Stunden pro Fall Vertretung der Angeklagten.
Nicht nur Juristen können von KI profitieren. Auch Prozessparteien, die sich vor Gericht selbst vertreten, können sich von KI-Chatbots rechtlich beraten lassen.
Künstliche Intelligenz kann den Zugang zu Rechtsberatung für benachteiligte und unterrepräsentierte Bevölkerungsgruppen erleichtern. Anwaltskanzleien können sie nutzen, um einkommensschwachen Personen unentgeltliche Rechtsberatung anzubieten. Da ein solches Modell Tausende oder sogar Millionen von Menschen gleichzeitig erreichen kann, ist es skalierbar und kann mit dem Wachstum der Kanzlei mitwachsen.
Rechtliche und ethische Bedenken im Zusammenhang mit KI
Obwohl KI für Kläger, Anwälte, Richter und Dolmetscher von Vorteil sein kann, birgt Missbrauch das Risiko fehlerhafter Rechtsurteile. Das Institut für nutzerzentrierte KI der Stanford University stellte 2024 fest, dass moderne LL.M.-Studiengänge … Halluzinationsrate von 69 % bis 88 % als Antwort auf rechtliche Anfragen.
LL.M.-Absolventen verbreiten oft selbstsicher fehlerhafte oder erfundene Informationen. Beispielsweise zitieren sie bei juristischen Recherchen nicht existierende Präzedenzfälle oder erfinden Zitate. Obwohl diese Annahmen plausibel erscheinen, sind sie unzutreffend.
Auch vorsätzliche Täuschung ist angesichts der Leistungsfähigkeit generativer KI möglich. Ein Kläger könnte sie nutzen, um einen Einbruch vorzutäuschen, indem er ein Video einer Überwachungskamera generiert, das den Beklagten beim Diebstahl von Gegenständen zeigt. Dieses Beispiel ist nicht rein hypothetisch, da Deepfakes bereits vor Gericht eingesetzt wurden.
Laut der jährlichen Prognose von 80 % der Gerichtsverfahren Sie basieren zum Teil auf Videomaterial – darunter Aufnahmen von Körperkameras, Handykameras oder Überwachungskameras. Deshalb sind Juristen zutiefst besorgt über Deepfakes. Im September 2025 wies ein Richter eine Zivilklage ab, nachdem er festgestellt hatte, dass eine Videoaufzeichnung einer Zeugenaussage ein Deepfake war.
Böswillige Akteure könnten KI-gestützte juristische Recherchetools missbrauchen, um das Justizsystem zu stören. Studien zeigen, dass dies möglich ist. 0.01 % der Stichproben eines Trainingsdatensatzes Mit den vorhandenen Werkzeugen. Das mag unbedeutend erscheinen, doch selbst eine Verfälschungsrate von nur 0.001 % kann die Ergebnisse dauerhaft verändern. Benutzer haben Zugriff auf etwa 30 % der Samples in jedem beliebigen LLM, wodurch Manipulationen überraschend einfach sind.
Reale Fälle, in denen KI vor Gericht eingesetzt wurde
KI könnte für Juristen und Selbstvertreter von Vorteil sein. Die meisten Beispiele aus der Praxis, die Schlagzeilen machen, sind jedoch negativ. Aufgrund der weit verbreiteten Besorgnis über die rechtlichen und ethischen Implikationen von KI im Gerichtssaal erhalten die schlimmsten Beispiele die größte Aufmerksamkeit.
Im Mai 2025 wollte Bundesrichter Michael Wilner mehr über die Argumente einiger Anwälte in einer Eingabe erfahren. Die von ihnen zitierten Artikel existierten jedoch nicht. Nach Nachfragen zu weiteren Details reichten sie eine neue Eingabe ein, die noch mehr Ungenauigkeiten enthielt als die erste.
Als Wilner sie aufforderte, unter Eid auszusagen und die Fehler zu erklären, gaben sie zu, Googles Gemini und juristische KI-Modelle zur Erstellung des Dokuments verwendet zu haben. Der Richter verhängte Sanktionen in Höhe von insgesamt 31,000 US-Dollar gegen die Anwaltskanzlei. Obwohl sie keine vertraulichen oder nicht öffentlichen Informationen eingegeben haben, haben sie dennoch die Zeit des Gerichts verschwendet.
Nicht nur Anwälte und Kläger missbrauchen KI. Im Jahr 2025 Zwei US-Bundesbezirksrichter zogen ihre Urteile zurück. Nachdem bekannt wurde, dass ihre Gerichtsmitarbeiter KI-Tools für die juristische Recherche eingesetzt hatten, was zu fehlerhaften und realitätsfernen Fallzitaten führte, schoben sie die Schuld für die fehlerhaften Urteile zwar auf die KI, doch es liegt in ihrer Verantwortung, die zitierten Fälle selbst zu lesen.
Es handelt sich hier nicht um Einzelfälle, die kleine, unbedeutende Anwaltskanzleien ins Rampenlicht rücken – hier begehen hochkarätige Anwälte und Bundesrichter peinliche, vermeidbare Fehler. Die Schuld liegt auch nicht allein bei intelligenten Algorithmen. Letztendlich ist KI nur ein Werkzeug. Ob es nützlich ist oder nicht, hängt vom Anwender ab.
Wie das Justizsystem KI nutzen sollte
Öffentlich verfügbare LLMs bergen ein hohes Genauigkeits- und Sicherheitsrisiko. Domänenspezifische Retrieval-Augmented-Generation-Modelle (RAG) werden als Lösung für KI-Probleme propagiert, da sie relevante Daten aus externen, vertrauenswürdigen Wissensdatenbanken abrufen, bevor sie eine Antwort generieren.
Ein Ampelsystem ist jedoch kein Allheilmittel, da das Recht nicht ausschließlich aus unbestreitbaren, überprüfbaren Fakten besteht. Geschworene lassen sich von charismatischen Anwälten beeinflussen. Richter verfassen Urteilsbegründungen, um ihre Entscheidungen zu begründen. Gesetze unterscheiden sich zwischen Ländern, Bundesstaaten und Regionen. In diesem Graubereich besteht Raum für Fehler.
Das Recht ist oft auslegungsbedürftig – genau deshalb gibt es Anwälte und Richter. Menschen können nicht erwarten, dass KI in diesem Bereich unfehlbar ist. Der Einsatz von Ampelsystemen ist zwar ein Schritt in die richtige Richtung, doch die kontinuierliche Überwachung durch einen menschlichen Faktor ist unerlässlich.
Wie wird KI in zukünftigen Gerichtssälen eingesetzt werden?
Gerichte benötigen relevante Dokumente mit korrekten Zitaten. Obwohl KI von Rechtsanwaltsfachangestellten und Anwälten gleichermaßen häufig eingesetzt wird, um Zeit und Aufwand bei administrativen Aufgaben zu sparen, hat sie nach wie vor Schwierigkeiten, diese Informationen zu finden.
KI-Halluzinationen sind kein rein US-amerikanisches Phänomen. In einem Fall im Vereinigten Königreich... Sie forderten fast 120 Millionen Dollar Schadenersatz. gegen die Qatar National Bank. Das Gericht stellte fest, dass 40 % der angeführten Präzedenzfälle frei erfunden waren. Selbst die tatsächlichen Fälle enthielten gefälschte Zitate. Schließlich gab der Kläger zu, KI-Tools für die juristische Recherche verwendet zu haben.
Selbst wenn ihr Fall stichhaltig gewesen wäre, hätten die KI-Halluzinationen ihrer Glaubwürdigkeit und ihrem Ruf geschadet und möglicherweise den Ausgang des Verfahrens beeinflusst. Um ähnliche Fehler in Zukunft zu vermeiden, muss das Recht mit der KI Schritt halten.
Die Regeln für den Einsatz und die Aufsicht von KI müssen detailliert und streng sein. In Gerichten, in denen es nur mündliche Vereinbarungen gibt, wird KI wahrscheinlich weiterhin von den Mitarbeitern genutzt. Wie Juristen wissen, benötigen Regeln einen Durchsetzungsmechanismus. Disziplinarmaßnahmen und Sanktionen tragen dazu bei, dass Fachleute die Tragweite eines sicheren und ethischen KI-Einsatzes verstehen.
Der Silberstreif am Horizont des KI-Einsatzes im Gerichtssaal
Diese folgenschweren Fehler werfen weitere Fragen zur Integrität der Forschung auf. Haben KI-Tools unbeabsichtigt aufgedeckt, dass Anwälte juristische Recherchen nicht überprüfen und Richter ungeprüfte Entwürfe protokollieren? Ob zum Guten oder zum Schlechten, KI wird Teil des Justizsystems. Wie bei jedem anderen Werkzeug hängt ihr positiver oder negativer Einfluss von ihrer Anwendung ab. Der positive Aspekt ist, dass selbst peinliche Fehler Fachleuten eine Lehre daraus bieten, was sie vermeiden sollten.












