Connect with us

Come l’Intelligenza Artificiale Sta Essendo Utilizzata in Tribunale

Intelligenza artificiale

Come l’Intelligenza Artificiale Sta Essendo Utilizzata in Tribunale

mm
Closeup of a judge's gavel in a courtroom.

Ogni giorno, vari professionisti del sistema giudiziario conducono ricerche legali, comunicano con i clienti, gestiscono casi giudiziari e interpretano la legge. Il loro lavoro è fondamentale per una società sicura e funzionante, ed è per questo che molti sono intrigati dalla promessa di una maggiore produttività. Gli avvocati – in particolare i difensori d’ufficio – spesso hanno un enorme carico di lavoro. I giudici scrivono opinioni dissenzienti che possono confondere le acque per future procedure legali. Le norme e gli statuti cambiano costantemente. All’interno di questo sistema complesso, l’intelligenza artificiale (AI) è emersa come un mezzo per automatizzare processi amministrativi che consumano tempo.

Applicazioni Quotidiane di AI in Tribunale

Gran parte della settimana lavorativa di un avvocato è spesa in compiti amministrativi che consumano tempo, e non nel convincere le giurie in tribunale. Loro spendono l’80% del loro tempo a raccogliere informazioni e solo il 20% per l’analisi e le implicazioni. Per costruire casi, devono setacciare meticolosamente la giurisprudenza, le norme e gli statuti. L’AI potrebbe semplificare tali compiti, risparmiando loro innumerevoli ore.

Gli assistenti AI possono aiutare gli avvocati a ottimizzare gli orari e gestire i carichi di lavoro, superando problemi di calendario. L’AI generativa può aiutarli e il loro personale a condurre ricerche legali. I giudici possono consultare strumenti di valutazione del rischio algoritmico quando prendono decisioni sulla cauzione.

Lo strumento può aiutare anche altri professionisti del diritto. I modelli di elaborazione del linguaggio naturale possono aiutare gli stenografi con la trascrizione, mentre i grandi modelli linguistici (LLM) possono assistere gli interpreti con la traduzione. L’AI generativa può stendere documenti, automatizzare la comunicazione con i clienti o organizzare i file dei casi per i paralegali e gli assistenti legali.

Vantaggi dell’Integrazione di AI nelle Funzioni Giudiziarie

L’AI può accelerare compiti ripetitivi che consumano tempo, liberando i professionisti per questioni più importanti o urgenti. Ciò sarebbe particolarmente vantaggioso per i difensori d’ufficio, che gestiscono centinaia di casi e appelli ogni anno. In media, loro spendono da 13,5 a 286 ore per caso per rappresentare i difensori.

I professionisti del diritto non sono gli unici a poter trarre beneficio dall’uso dell’AI. I litiganti che si rappresentano da soli in tribunale possono cercare orientamento legale da chatbot AI.

L’AI può rendere la rappresentanza legale più accessibile per le popolazioni svantaggiate e sottorappresentate. Gli studi legali possono utilizzarla per offrire servizi legali pro bono a persone a basso reddito. Poiché un modello può interagire con migliaia o addirittura milioni di persone contemporaneamente, può scalare man mano che lo studio legale si espande.

Preoccupazioni Legali ed Etiche Associate all’AI

Sebbene l’AI possa essere benefica per gli attori, gli avvocati, i giudici e gli interpreti, un uso improprio potrebbe portare a giudizi legali errati. Nel 2024, l’Istituto per l’Intelligenza Artificiale Centrata sull’Uomo di Stanford ha scoperto che i LLM all’avanguardia hanno un tasso di allucinazione del 69% all’88% in risposta a query legali.

I LLM spesso producono con fiducia informazioni difettose o fittizie. Ad esempio, possono citare una giurisprudenza inesistente o inventare citazioni quando conducono ricerche legali. Nonostante appaiano plausibili, queste allucinazioni sono inaccurate.

È anche possibile l’inganno intenzionale, data la potenza dell’AI generativa. Un attore potrebbe utilizzarla per fingere un furto generando un video di sicurezza domestica che ritrae il difensore mentre ruba i suoi beni. Questo esempio non è del tutto ipotetico, poiché i deepfake sono già stati utilizzati in tribunale.

Negli Stati Uniti, l’80% dei casi giudiziari si basa su video – comprese le immagini delle telecamere di sorveglianza, le registrazioni dei telefoni cellulari o i clip di sorveglianza – in qualche misura. È per questo che i professionisti del diritto sono profondamente preoccupati per i deepfake. Nel settembre 2025, un giudice ha respinto un caso civile dopo aver determinato che una testimonianza di un testimone registrata su nastro era un deepfake.

Gli attori malintenzionati potrebbero prendere di mira gli strumenti di ricerca legale AI per disturbare il sistema giudiziario. La ricerca mostra che è possibile avvelenare lo 0,01% dei campioni del set di dati di addestramento con strumenti esistenti. Ciò potrebbe sembrare insignificante, ma un tasso di avvelenamento dell’0,001% può alterare permanentemente l’output. Gli utenti possono accedere a circa il 30% dei campioni in qualsiasi LLM, rendendo la corruzione sorprendentemente facile.

Casi del Mondo Reale in cui l’AI è Stata Utilizzata in Tribunale

L’AI potrebbe essere vantaggiosa per i professionisti del diritto e per le persone che si rappresentano da sole. Tuttavia, la maggior parte degli esempi del mondo reale che fanno notizia non sono favorevoli. A causa della preoccupazione diffusa sulle implicazioni legali ed etiche dell’AI in tribunale, gli esempi peggiori ricevono l’attenzione maggiore.

Nel maggio 2025, il giudice federale Michael Wilner ha voluto saperne di più sugli argomenti che alcuni avvocati hanno presentato in una memoria. Tuttavia, gli articoli che hanno citato non esistevano. Dopo essere stati sollecitati per ulteriori dettagli, hanno presentato una nuova memoria con più inesattezze della prima.

Quando Wilner ha ordinato loro di fornire una testimonianza giurata per spiegare gli errori, hanno ammesso di aver utilizzato Gemini di Google e modelli di AI specifici per il diritto per scrivere il documento. Il giudice ha imposto sanzioni per un totale di 31.000 dollari contro lo studio legale. Anche se non hanno immesso informazioni riservate o non pubbliche, hanno comunque sprecato il tempo del tribunale.

Non sono solo gli avvocati e gli attori a utilizzare impropriamente l’AI. Nel 2025, due giudici federali degli Stati Uniti hanno ritirato le loro sentenze dopo che è stato scoperto che il loro personale di tribunale aveva utilizzato strumenti di AI per la ricerca legale, portando a citazioni di casi errate e allucinate. Sebbene abbiano incolpato le sentenze difettose dell’AI, è loro responsabilità leggere il caso che citano.

Questi non sono casi isolati che mettono in evidenza piccoli, oscuri studi legali locali – questi sono grandi avvocati e giudici federali che commettono errori imbarazzanti ed evitabili. La colpa non ricade interamente sugli algoritmi intelligenti, comunque. Alla fine, l’AI è solo uno strumento. Che il suo impatto sia positivo o negativo dipende dall’utente.

Come il Sistema Giudiziario Dovrebbe Utilizzare l’AI

I LLM pubblicamente disponibili sono rischi per l’accuratezza e la sicurezza che aspettano di accadere. I modelli di generazione aumentata da recupero (RAG) specifici del dominio vengono promossi come una soluzione per le allucinazioni dell’AI perché recuperano dati rilevanti da basi di conoscenza esterne attendibili prima di generare una risposta.

Tuttavia, un modello RAG non è una soluzione miracolosa perché la legge non è interamente composta da fatti indiscussi e verificabili. Le giurie sono influenzate da avvocati carismatici. I giudici scrivono opinioni per spiegare il ragionamento dietro le loro sentenze. Le leggi differiscono tra paesi, stati e località. C’è spazio per l’errore in questa zona grigia.

La legge è spesso soggetta a interpretazione – è per questo che esistono avvocati e giudici. Gli esseri umani non possono aspettarsi che l’AI sia un’autorità infallibile sull’argomento. Sebbene utilizzare RAG sia un passo nella direzione giusta, assicurarsi di avere un approccio con un essere umano nella catena di controllo è fondamentale.

Come l’AI Sarà Utilizzata nei Tribunali Futuri

I tribunali si basano sulla documentazione rilevante supportata da citazioni accurate. Nonostante sia ampiamente adottata da paralegali e avvocati per risparmiare tempo e fatica sui compiti amministrativi, l’AI fatica ancora a recuperare queste informazioni.

Le allucinazioni dell’AI non sono esclusive dei tribunali degli Stati Uniti. In un caso nel Regno Unito, l’attore ha chiesto quasi 120 milioni di dollari di danni contro la Qatar National Bank. Il tribunale ha scoperto che il 40% delle citazioni della giurisprudenza del caso erano completamente fittizie. Anche i casi reali erano pieni di citazioni false. Alla fine, l’attore ha ammesso di aver utilizzato strumenti di AI per la ricerca legale.

Anche se il loro caso fosse solido, le allucinazioni dell’AI hanno danneggiato la loro credibilità e reputazione, potenzialmente influenzando l’esito contro di loro. Per evitare errori simili in futuro, la legge deve stare al passo con l’AI.

Le regole che disciplinano l’uso e la supervisione dell’AI devono essere dettagliate e robuste. I tribunali con “intese verbali” troveranno probabilmente il personale che utilizza ancora l’AI. Come sanno i professionisti del diritto, le regole richiedono un meccanismo di applicazione. Le misure disciplinari e le sanzioni aiuteranno i professionisti a comprendere la gravità dell’uso sicuro ed etico dell’AI.

Il Lato Positivo dell’Uso dell’AI in Tribunale

Questi errori ad alto rischio sollevano ulteriori domande sull’integrità della ricerca. Hanno gli strumenti di AI involontariamente rivelato che gli avvocati non verificano la ricerca legale e i giudici schedulano bozze non verificate? Per meglio o per peggio, l’AI sta diventando parte del sistema giudiziario. Come qualsiasi altro strumento, che il suo impatto sia positivo o negativo dipende da come viene utilizzato. Il lato positivo è che anche errori imbarazzanti forniscono ai professionisti una guida su cosa non fare.

Zac Amos è uno scrittore di tecnologia che si concentra sull'intelligenza artificiale. È anche il caporedattore delle funzionalità di ReHack, dove puoi leggere altro del suo lavoro.