Umělá inteligence
Jak je umělá inteligence používána v soudní síni
Každý den provádějí různí profesionálové v justičním systému právní výzkum, komunikují s klienty, spravují soudní případy a interpretují zákon. Jejich práce je základem bezpečné a funkční společnosti, a proto mnoho lidí fascinuje slib vyšší produktivity. Advokáti – zejména obhájci – často mají obrovské množství případů. Soudci píší nesouhlasné názory, které mohou zkomplikovat budoucí právní řízení. Předpisy a zákony se neustále mění. V tomto komplexním systému se umělá inteligence (AI) stala prostředkem k automatizaci časově náročných administrativních procesů.
Každodenní aplikace AI v soudní síni
Velká část týdne advokáta je strávena časově náročnými administrativními úkoly, ne přesvědčováním porot v soudní síni. Stráví 80% svého času shromažďováním informací a pouze 20% analýzou a důsledky. K sestavení případů musí pečlivě procházet soudní judikaturou, předpisy a zákony. AI by mohla zjednodušit tyto úkoly a ušetřit jim nekonečné hodiny.
Asistenti AI mohou pomoci advokátům optimalizovat své rozvrhy a spravovat své případy, překonávat problémy s docketingem. Generativní AI může pomoci jim a jejich personálu provádět právní výzkum. Soudci mohou konzultovat algoritmické nástroje pro hodnocení rizika při rozhodování o vazbě.
Nástroj může pomoci také jiným právním odborníkům. Modely zpracování přirozeného jazyka mohou pomoci stenografům s přepisem, zatímco velké jazykové modely (LLM) mohou pomoci tlumočníkům s překladem. Generativní AI může vypracovat dokumenty, automatizovat komunikaci s klienty nebo organizovat spisové materiály pro právní asistenty a asistenty.
Výhody integrace AI do soudních funkcí
AI může urychlit časově náročné, opakující se úkoly, uvolnit profesionály pro důležitější nebo časově citlivé záležitosti. To by bylo özellikle výhodné pro obhájce, kteří ročně zpracovávají stovky případů a odvolání. V průměru stráví 13,5 až 286 hodin na případ zastupováním obviněných.
Právní odborníci nejsou jediní, kdo může těžit z použití AI. Strany, které se zastupují samy, mohou hledat právní rady u chatbotů AI.
AI může učinit právní zastupování přístupnějším pro znevýhodněné a nedostatečně zastupované skupiny. Advokátní kanceláře mohou použít AI k poskytování bezplatných právních služeb osobám s nízkými příjmy. Jeden model může současně komunikovat s tisíci nebo dokonce miliony lidí, může se škálovat, jak advokátní kancelář expanduje.
Právní a etické obavy spojené s AI
Ačkoli AI může být prožalobce, advokáty, soudce a tlumočníky výhodné, zneužití může vést k chybným právním rozsudkům. V roce 2024 Stanfordův institut pro umělou inteligencí zaměřenou na člověka zjistil, že nejmodernější LLM mají hlucinační rychlost 69% až 88% při odpovědi na právní dotazy.
LLM často sebevědomě poskytují chybné nebo fiktivní informace. Například mohou citovat neexistující judikaturu nebo vyrábět citáty při provádění právního výzkumu. Přes zdánlivou věrohodnost jsou tyto halucinace nepřesné.
Úmyslné klamání je také možné, vzhledem k síle generativní AI. Žalobce by mohl použít AI k padělání vloupání tím, že vygeneruje video z domácí bezpečnosti, které ukazuje obviněného, jak krade jeho majetek. Tento příklad není zcela hypotetický, protože deepfakes již byly použity v soudní síni.
Ve Spojených státech 80% soudních případů závisí na videu – včetně záznamů z policejních kamer, mobilních telefonů nebo bezpečnostních kamer – do určité míry. To je důvod, proč se právní odborníci hluboce obávají deepfakes. V září 2025 soudce zrušil civilní případ poté, co zjistil, že videozáznam svědectví byl deepfake.
Špatní aktéři by mohli zaměřit AI nástroje pro právní výzkum, aby narušili justiční systém. Výzkum ukazuje, že je možné otrávit 0,01% vzorků trénovací datové sady pomocí stávajících nástrojů. To se může zdát zanedbatelné, ale míra otrávení až 0,001% může trvale změnit výstup. Uživatelé mohou získat přístup k asi 30% vzorků v každém LLM, což činí korupci překvapivě snadnou.
Skutečné případy, ve kterých byla AI použita v soudní síni
AI by mohla být pro právní odborníky a osoby zastupující se samy výhodná. Nicméně většina skutečných příkladů, které jsou uváděny v novinách, nejsou příznivé. Kvůli obecným obavám o právní a etické důsledky AI v soudní síni se nejhorší příklady dostanou do popředí.
V květnu 2025 chtěl federální soudce Michael Wilner dozvědět se více o argumentech, které einige advokáti uvedli ve svém podání. Nicméně články, na které odkazovali, neexistovaly. Po tom, co byli dotázáni na další podrobnosti, předložili nový návrh s více nepřesnostmi než první.
Když Wilner nařídil, aby poskytli přísahaté výpovědi, ve kterých vysvětlí chyby, přiznali, že použili Google Gemini a law-specifické AI modely k sepsání dokumentu. Soudce uložil pokuty ve výši 31 000 dolarů proti advokátní kanceláři. I když nezadali žádné důvěrné nebo neveřejné informace, stále promarnili čas soudu.
Není to pouze advokáti a žalobci, kteří zneužívají AI. V roce 2025 dvě federální soudkyně ve Spojených státech stáhly své rozsudky poté, co bylo zjištěno, že jejich personál soudu použil AI nástroje pro právní výzkum, což vedlo k chybám a halucinacím v citacích případů. Ačkoli obvinili chybné rozsudky z AI, je jejich odpovědností přečíst případ, na který odkazují.
Tyto nejsou izolované případy, které poukazují na malé, neznámé místní advokátní kanceláře – tyto jsou prominentní advokáti a federální soudci, kteří dělají trapné, zbytečné chyby. Vina nespadá pouze na chybné algoritmy, ani na inteligentní algoritmy. Na konci dne je AI pouze nástrojem. Závisí na uživateli, zda je jeho dopad pozitivní nebo negativní.
Jak by měl justiční systém používat AI
Veřejně dostupné LLM jsou rizika pro přesnost a bezpečnost, která čekají na to, aby se stala skutečností. Modely generace s podporou načítání (RAG) jsou propagovány jako řešení pro halucinace AI, protože načítají relevantní data z externích, důvěryhodných znalostních bází před generováním odpovědi.
Nicméně model RAG není žádný všelék, protože zákon není zcela tvořen nespornými, ověřitelnými fakty. Poroty jsou ovlivňovány charismatickými advokáty. Soudci píší názory, aby vysvětlili své rozhodnutí. Zákony se liší mezi zeměmi, státy a místními samosprávami. Existuje prostor pro chyby v této šedé zóně.
Zákon je často interpretován – proto existují advokáti a soudci. Lidé nemohou očekávat, že AI bude neomylnou autoritou v této oblasti. Zatímco použití RAG je krok správným směrem, zajištění kontinuální kontroly s lidským faktorem je klíčové.
Jak bude AI použita v budoucích soudních síních
Soudy se spoléhají na relevantní dokumentaci podporovanou přesnými citacemi. Přes to, že jsou široce používány paralegály a advokáty, aby ušetřili čas a úsilí na administrativních úkolech, AI stále zápasí s načítáním těchto informací.
Halucinace AI nejsou výlučné pro americké soudy. V jednom případě ve Spojeném království žalobce požadoval téměř 120 milionů dolarů v náhradě škody proti Qatar National Bank. Soud zjistil, že 40% citací judikatury byly zcela fiktivní. I skutečné případy byly plné falešných citátů. Nakonec žalobce přiznal, že použil AI nástroje pro právní výzkum.
I kdyby jejich případ byl solidní, halucinace AI poškodily jejich důvěryhodnost a pověst, což mohlo ovlivnit výsledek proti nim. Aby se v budoucnu zabránilo podobným omylům, musí se zákon přizpůsobit AI.
Pravidla pro používání AI a kontrolu musí být detailní a robustní. Soudy s „verbálními dohodami“ pravděpodobně najdou personál, který bude stále používat AI. Jako právní odborníci znají, pravidla vyžadují mechanismus pro vynucení. Disciplinární opatření a sankce pomohou profesionálům pochopit vážnost bezpečného a etického používání AI.
Stříbrná linie používání AI v soudní síni
Tyto chyby s vysokými ставkami vyvolávají další otázky o integritě výzkumu. Odhalily AI nástroje neúmyslně, že advokáti neověřují právní výzkum a soudci docketují neověřené návrhy? Pro lepší nebo horší, AI se stává součástí justičního systému. Jako jakýkoli jiný nástroj závisí jeho dopad na tom, jak je používán. Stříbrná linie je, že i trapné chyby poskytují profesionálům průvodce tím, co nedělat.












