Künstliche Intelligenz
Wie künstliche Intelligenz im Gerichtssaal eingesetzt wird
Jeden Tag führen verschiedene Fachleute im Justizsystem Rechtsforschung durch, kommunizieren mit Klienten, verwalten Gerichtsverfahren und interpretieren das Gesetz. Ihre Arbeit ist grundlegend für eine sichere und funktionierende Gesellschaft, was der Grund ist, warum viele von der Aussicht auf höhere Produktivität fasziniert sind. Anwälte — insbesondere öffentliche Verteidiger — haben oft enorme Fallzahlen. Richter schreiben abweichende Meinungen, die die Zukunft rechtlicher Verfahren verkomplizieren können. Vorschriften und Gesetze ändern sich ständig. In diesem komplexen System ist künstliche Intelligenz (KI) als Mittel zur Automatisierung zeitaufwändiger administrativer Prozesse entstanden.
Tägliche Anwendungen von KI im Gerichtssaal
Ein großer Teil der Arbeitswoche eines Anwalts wird mit zeitaufwändigen administrativen Aufgaben verbracht, nicht mit der Überzeugung von Geschworenen in Gerichtssälen. Sie verbringen 80% ihrer Zeit damit, Informationen zu sammeln und nur 20% mit der Analyse und den Auswirkungen. Um Fälle aufzubauen, müssen sie sorgfältig durch Fallrecht, Vorschriften und Gesetze suchen. KI könnte solche Aufgaben rationalisieren und ihnen unzählige Stunden sparen.
KI-Assistenten können Anwälten helfen, ihre Termine zu optimieren und ihre Fallzahlen zu verwalten, um Terminprobleme zu überwinden. Generative KI kann ihnen und ihrem Personal helfen, Rechtsforschung durchzuführen. Richter können algorithmische Risikobewertungstools konsultieren, wenn sie über Kaution entscheiden.
Das Tool kann auch anderen Rechtsfachleuten helfen. Modelle der natürlichen Sprachverarbeitung können Stenografen bei der Transkription helfen, während große Sprachmodelle (LLMs) Dolmetschern bei der Übersetzung helfen können. Generative KI kann Dokumente erstellen, die Kommunikation mit Klienten automatisieren oder Fallakten für Rechtsanwaltsgehilfen und Rechtsassistenten organisieren.
Vorteile der Integration von KI in Gerichtsfunktionen
KI kann zeitaufwändige, wiederkehrende Aufgaben beschleunigen und Fachleute für wichtigere oder zeitkritischere Angelegenheiten freistellen. Dies wäre besonders vorteilhaft für öffentliche Verteidiger, die jedes Jahr mit Hunderten von Fällen und Berufungen zu tun haben. Im Durchschnitt verbringen sie 13,5 bis 286 Stunden pro Fall mit der Vertretung von Angeklagten.
Rechtsfachleute sind nicht die einzigen, die von der Verwendung von KI profitieren können. Kläger, die sich selbst im Gericht vertreten, können von KI-Chatbots rechtliche Anleitung erhalten.
KI kann die rechtliche Vertretung für benachteiligte und unterrepräsentierte Bevölkerungsgruppen zugänglicher machen. Anwaltskanzleien können sie nutzen, um unentgeltliche Rechtsdienste für Menschen mit niedrigem Einkommen anzubieten. Da ein Modell mit Tausenden oder sogar Millionen von Menschen gleichzeitig interagieren kann, kann es sich mit dem Wachstum der Anwaltskanzlei skalieren.
Rechtliche und ethische Bedenken im Zusammenhang mit KI
Obwohl KI für Kläger, Anwälte, Richter und Dolmetscher nützlich sein kann, kann ihr Missbrauch zu fehlerhaften rechtlichen Urteilen führen. Im Jahr 2024 fand das Institute for Human-Centered AI von Stanford heraus, dass state-of-the-art-LLMs eine Halluzinationsrate von 69% bis 88% bei der Beantwortung rechtlicher Anfragen haben.
LLMs geben oft mit großer Sicherheit fehlerhafte oder fiktive Informationen aus. Zum Beispiel können sie nicht existierendes Fallrecht zitieren oder Zitate erfinden, wenn sie Rechtsforschung durchführen. Trotz ihrer plausiblen Erscheinung sind diese Halluzinationen ungenau.
Intentionale Täuschung ist auch möglich, angesichts der Macht generativer KI. Ein Kläger könnte sie nutzen, um einen Einbruch zu fingieren, indem er ein Video der Heimsicherheit erstellt, das den Angeklagten zeigt, wie er die Besitztümer des Klägers stiehlt. Dieses Beispiel ist nicht ganz hypothetisch, da Deepfakes bereits im Gerichtssaal verwendet wurden.
In den USA 80% der Gerichtsverfahren hängen in irgendeiner Weise von Videoaufnahmen ab — einschließlich Bodycam-Footage, Handy-Aufnahmen oder Überwachungsaufnahmen. Deshalb sind Rechtsfachleute tief besorgt über Deepfakes. Im September 2025 wies ein Richter einen Zivilprozess ab, nachdem er festgestellt hatte, dass die videografierte Zeugenaussage ein Deepfake war.
Böswillige Akteure könnten KI-Rechtsforschungstools angreifen, um das Justizsystem zu stören. Forschungsergebnisse zeigen, dass es möglich ist, 0,01% der Trainingsdatensätze mit bestehenden Tools zu vergiften. Das mag unbedeutend erscheinen, aber eine Vergiftungsrate von nur 0,001% kann die Ausgabe dauerhaft verändern. Benutzer können auf etwa 30% der Samples in jedem LLM zugreifen, was die Korruption überraschend einfach macht.
Echte Fälle, in denen KI im Gericht eingesetzt wurde
KI könnte für Rechtsfachleute und Personen, die sich selbst im Gericht vertreten, vorteilhaft sein. Allerdings sind die meisten realen Beispiele, die Schlagzeilen machen, nicht günstig. Aufgrund der weit verbreiteten Besorgnis über die rechtlichen und ethischen Auswirkungen von KI im Gerichtssaal erhalten die schlechtesten Beispiele die meiste Aufmerksamkeit.
Im Mai 2025 wollte der Bundesrichter Michael Wilner mehr über die Argumente erfahren, die einige Anwälte in einer Einreichung vorgetragen hatten. Allerdings existierten die von ihnen zitierten Artikel nicht. Nachdem sie unter Druck gesetzt worden waren, um mehr Details zu liefern, reichten sie ein neues Dokument mit noch mehr Ungenauigkeiten als das erste ein.
Als Wilner sie aufforderte, eine eidesstattliche Erklärung abzugeben, um die Fehler zu erklären, gaben sie zu, dass sie Google’s Gemini und rechtspezifische KI-Modelle verwendet hatten, um das Dokument zu schreiben. Der Richter verhängte Sanktionen in Höhe von 31.000 US-Dollar gegen die Anwaltskanzlei. Obwohl sie keine vertraulichen oder nichtöffentlichen Informationen eingegeben hatten, verschwendeten sie dennoch die Zeit des Gerichts.
Es sind nicht nur Anwälte und Kläger, die KI missbrauchen. Im Jahr 2025 zogen zwei US-Bundesrichter ihre Urteile zurück, nachdem festgestellt worden war, dass ihr Gerichtspersonal KI-Tools für Rechtsforschung verwendet hatte, was zu fehlerhaften, halluzinierten Fallzitaten geführt hatte. Obwohl sie die fehlerhaften Urteile auf KI schoben, ist es ihre Verantwortung, die Fälle, die sie zitieren, zu lesen.
Diese sind keine Einzelfälle, die kleine, unbekannte lokale Anwaltskanzleien hervorheben — dies sind große Anwälte und Bundesrichter, die peinliche, vermeidbare Fehler machen. Die Schuld liegt nicht allein bei intelligenten Algorithmen. Letztendlich ist KI nur ein Werkzeug. Ob ihr Einfluss positiv oder negativ ist, hängt vom Benutzer ab.
Wie das Justizsystem KI nutzen sollte
Öffentlich zugängliche LLMs sind Risiken für Genauigkeit und Sicherheit, die nur darauf warten, zu passieren. Domänen-spezifische Retrieval-ergänzte Generierungsmodelle (RAG) werden als Lösung für KI-Halluzinationen beworben, da sie vor der Generierung einer Antwort relevante Daten aus externen, vertrauenswürdigen Wissensbasen abrufen.
Allerdings ist ein RAG-Modell kein Allheilmittel, da das Gesetz nicht ausschließlich aus unbestrittenen, verifizierbaren Fakten besteht. Geschworene werden von charismatischen Anwälten überzeugt. Richter schreiben Stellungnahmen, um die Begründung für ihre Urteile zu erklären. Gesetze unterscheiden sich zwischen Ländern, Bundesstaaten und Kommunen. Es gibt Raum für Fehler in diesem Graubereich.
Das Gesetz ist oft Auslegungssache — deshalb existieren Anwälte und Richter überhaupt. Menschen können nicht erwarten, dass KI eine unfehlbare Autorität in diesem Bereich ist. Obwohl die Verwendung von RAG ein Schritt in die richtige Richtung ist, ist es wichtig, eine kontinuierliche Überwachung mit einem menschlichen Ansatz zu gewährleisten.
Wie KI in zukünftigen Gerichtssälen eingesetzt werden wird
Gerichte verlassen sich auf relevante Dokumentation, die durch genaue Zitate unterstützt wird. Trotz ihrer weiten Akzeptanz durch Rechtsanwaltsgehilfen und Anwälte, um Zeit und Mühe bei administrativen Aufgaben zu sparen, hat KI noch Schwierigkeiten, diese Informationen abzurufen.
KI-Halluzinationen sind nicht exklusiv für US-Gerichtssäle. In einem Fall im Vereinigten Königreich forderte der Kläger fast 120 Millionen US-Dollar Schadensersatz von der Qatar National Bank. Das Gericht stellte fest, dass 40% der Fallzitate des Klägers völlig fiktiv waren. Selbst die tatsächlichen Fälle waren mit falschen Zitaten gefüllt. Schließlich gab der Kläger zu, KI-Tools für Rechtsforschung verwendet zu haben.
Selbst wenn ihr Fall solide war, schadeten KI-Halluzinationen ihrem Ruf und ihrer Glaubwürdigkeit und könnten das Ergebnis gegen sie beeinflusst haben. Um ähnliche Fehlleistungen in der Zukunft zu vermeiden, muss das Gesetz mit KI Schritt halten.
Regeln, die den Einsatz und die Überwachung von KI regeln, müssen detailliert und robust sein. Gerichtssäle mit “mündlichen Vereinbarungen” werden wahrscheinlich feststellen, dass ihr Personal immer noch KI nutzt. Wie Rechtsfachleute wissen, benötigen Regeln ein Durchsetzungsmechanismus. Disziplinarmaßnahmen und Sanktionen werden Fachleuten helfen, die Schwere des sicheren und ethischen Einsatzes von KI zu verstehen.
Die silberne Linie der KI-Verwendung im Gerichtssaal
Diese hochkarätigen Fehler werfen weitere Fragen über die Integrität der Forschung auf. Haben KI-Tools ungewollt aufgedeckt, dass Anwälte ihre Rechtsforschung nicht überprüfen und Richter unüberprüfte Entwürfe einreichen? Gute oder schlechte, KI wird Teil des Justizsystems. Wie jedes andere Werkzeug hängt es vom Benutzer ab, ob ihr Einfluss positiv oder negativ ist. Die silberne Linie ist, dass sogar peinliche Fehlleistungen Fachleuten eine Anleitung darüber geben, was nicht zu tun ist.












