Connect with us

Como a Inteligência Artificial Está Sendi Usada no Tribunal

Inteligência artificial

Como a Inteligência Artificial Está Sendi Usada no Tribunal

mm
Closeup of a judge's gavel in a courtroom.

Todos os dias, vários profissionais do sistema de justiça realizam pesquisas jurídicas, se comunicam com clientes, gerenciam processos judiciais e interpretam a lei. Seu trabalho é fundamental para uma sociedade segura e funcional, o que é por que muitos estão intrigados com a promessa de maior produtividade. Advogados — especialmente defensores públicos — muitas vezes têm uma carga de trabalho enorme. Juízes escrevem opiniões dissidentes que podem confundir as águas para futuros procedimentos legais. Regulamentações e estatutos mudam constantemente. Dentro desse sistema complexo, a inteligência artificial (IA) surgiu como um meio para automatizar processos administrativos demorados.

Aplicações Diárias de IA no Tribunal

Muito do trabalho semanal de um advogado é gasto em tarefas administrativas demoradas, não convencendo júris em tribunais. Eles gastam 80% de seu tempo coletando informações e apenas 20% em análise e implicações. Para construir casos, eles devem passar meticulosamente por lei, regulamentações e estatutos. A IA poderia simplificar essas tarefas, economizando horas contadas.

Assistentes de IA podem ajudar advogados a otimizar agendas e gerenciar carga de trabalho, superando problemas de marcação. IA geradora pode ajudá-los e sua equipe a realizar pesquisas jurídicas. Juízes podem consultar ferramentas de avaliação de risco algorítmico ao tomar decisões de fiança.

A ferramenta também pode ajudar outros profissionais jurídicos. Modelos de processamento de linguagem natural podem ajudar estenógrafos com transcrição, enquanto modelos de linguagem grande (LLMs) podem ajudar intérpretes com tradução. IA geradora pode redigir documentos, automatizar a comunicação com clientes ou organizar arquivos de caso para paralegais e assistentes jurídicos.

Benefícios da Integração de IA às Funções do Tribunal

A IA pode acelerar tarefas demoradas e repetitivas, liberando profissionais para questões mais importantes ou urgentes. Isso seria particularmente vantajoso para defensores públicos, que lidam com centenas de casos e recursos por ano. Em média, eles gastam qualquer coisa entre 13,5 a 286 horas por caso representando réus.

Profissionais jurídicos não são os únicos que podem se beneficiar do uso de IA. Litigantes que se representam sozinhos no tribunal podem buscar orientação jurídica de chatbots de IA.

A IA pode tornar a representação jurídica mais acessível para populações desfavorecidas e sub-representadas. Escritórios de advocacia podem usá-la para oferecer serviços jurídicos pro bono a indivíduos de baixa renda. Como um modelo pode se engajar com milhares ou até milhões de pessoas simultaneamente, ele pode dimensionar à medida que o escritório de advocacia se expande.

Preocupações Legais e Éticas Associadas à IA

Embora a IA possa ser benéfica para autores, advogados, juízes e intérpretes, o uso indevido pode levar a julgamentos legais errôneos. Em 2024, o Instituto de IA Centrada no Ser Humano de Stanford descobriu que LLMs de última geração têm uma taxa de alucinação de 69% a 88% em resposta a consultas jurídicas.

LLMs frequentemente produzem informações defeituosas ou fictícias com confiança. Por exemplo, eles podem citar lei de caso inexistente ou fabricar citações ao realizar pesquisas jurídicas. Apesar de parecerem plausíveis, essas alucinações são imprecisas.

A decepção intencional também é possível, dado o poder da IA geradora. Um autor pode usá-la para simular um arrombamento, gerando um vídeo de segurança caseira que mostra o réu roubando seus pertences. Esse exemplo não é completamente hipotético, pois deepfakes já foram usados no tribunal.

Nos EUA, 80% dos casos judiciais dependem de vídeo — incluindo filmagens de câmeras de corpo, gravações de celular ou clipes de vigilância — em algum grau. É por isso que os profissionais jurídicos estão profundamente preocupados com deepfakes. Em setembro de 2025, um juiz arquivou um caso civil após determinar que o testemunho de uma testemunha gravada era um deepfake.

Atores mal-intencionados podem visar ferramentas de pesquisa jurídica de IA para interromper o sistema de justiça. Pesquisas mostram que é possível envenenar 0,01% das amostras do conjunto de dados de treinamento com ferramentas existentes. Isso pode parecer insignificante, mas uma taxa de envenenamento tão baixa quanto 0,001% pode alterar permanentemente a saída. Os usuários podem acessar cerca de 30% das amostras em qualquer LLM, tornando a corrupção surpreendentemente fácil.

Casos Reais em que a IA foi Usada no Tribunal

A IA pode ser vantajosa para profissionais jurídicos e indivíduos que se representam sozinhos. No entanto, a maioria dos exemplos do mundo real que estão fazendo manchetes não é favorável. Devido à preocupação generalizada sobre as implicações legais e éticas da IA no tribunal, os piores exemplos recebem mais atenção.

Em maio de 2025, o juiz federal Michael Wilner queria saber mais sobre os argumentos que alguns advogados fizeram em um arquivo. No entanto, os artigos que citaram não existiam. Após ser pressionado por mais detalhes, eles entregaram um novo memorial com mais imprecisões do que o primeiro.

Quando Wilner ordenou que eles dessem testemunho sob juramento explicando os erros, eles admitiram ter usado o Gemini do Google e modelos de IA específicos de lei para redigir o documento. O juiz impossuiu sanções totalizando $31.000 contra o escritório de advocacia. Embora não tenham inserido informações confidenciais ou não públicas, ainda assim desperdiçaram o tempo do tribunal.

Não é apenas advogados e autores que estão usando mal a IA. Em 2025, dois juízes federais dos EUA retiraram decisões após descobrir que sua equipe do tribunal havia usado ferramentas de IA para pesquisas jurídicas, resultando em citações de casos com erros e alucinações. Embora tenham culpado as decisões defeituosas pela IA, é responsabilidade deles ler o caso que citam.

Esses não são casos isolados destacando pequenos escritórios de advocacia obscuros — esses são advogados e juízes federais de alto nível cometendo erros embaraçosos e evitáveis. A culpa não recai apenas nos algoritmos inteligentes, tampouco. No final do dia, a IA é apenas uma ferramenta. Seja benéfica ou não depende do usuário.

Como o Sistema de Justiça Deve Estar Usando a IA

LLMs disponíveis publicamente são riscos de precisão e segurança esperando para acontecer. Modelos de geração aumentada de recuperação (RAG) específicos de domínio estão sendo promovidos como uma solução para alucinações de IA porque recuperam dados relevantes de bases de conhecimento externas confiáveis antes de gerar uma resposta.

No entanto, um modelo RAG não é uma bala de prata porque a lei não é composta inteiramente de fatos indiscutíveis e verificáveis. Júris são influenciados por advogados carismáticos. Juízes escrevem opiniões para explicar o raciocínio por trás de suas decisões. Leis diferem entre países, estados e localidades. Há espaço para erro nessa área cinzenta.

A lei é frequentemente interpretada — é por isso que advogados e juízes existem em primeiro lugar. Seres humanos não podem esperar que a IA seja uma autoridade infalível sobre o assunto. Embora usar RAG seja um passo na direção certa, garantir supervisão contínua com uma abordagem de humano no loop é fundamental.

Como a IA Será Usada em Tribunais Futuros?

Tribunais dependem de documentação relevante apoiada por citações precisas. Apesar de ser amplamente adotada por paralegais e advogados para economizar tempo e esforço em tarefas administrativas, a IA ainda luta para recuperar essas informações.

Alucinações de IA não são exclusivas de tribunais dos EUA. Em um caso no Reino Unido, o autor buscou quase $120 milhões em danos contra o Banco Nacional do Qatar. O tribunal encontrou 40% das citações de lei de caso completamente fictícias. Mesmo os casos reais estavam cheios de citações falsas. Eventualmente, o autor admitiu ter usado ferramentas de IA para pesquisas jurídicas.

Mesmo que seu caso fosse sólido, as alucinações de IA danificaram sua credibilidade e reputação, potencialmente influenciando o resultado contra eles. Para evitar erros semelhantes no futuro, a lei deve acompanhar a IA.

Regras que governam o uso e supervisão de IA devem ser detalhadas e robustas. Tribunais com “entendimentos verbais” provavelmente encontrarão funcionários ainda usando IA. Como os profissionais jurídicos sabem, regras exigem um mecanismo de aplicação. Medidas disciplinares e sanções ajudarão os profissionais a entender a gravidade do uso seguro e ético de IA.

O Lado Positivo do Uso de IA no Tribunal

Esses erros de alto risco levantam mais questões sobre a integridade da pesquisa. Os ferramentas de IA inadvertidamente revelaram que advogados não verificam pesquisas jurídicas e juízes estão marcando rascunhos não verificados? Para melhor ou pior, a IA está se tornando parte do sistema de justiça. Como qualquer outra ferramenta, seja seu impacto positivo ou negativo depende de como é usada. O lado positivo é que até erros embaraçosos fornecem aos profissionais um guia sobre o que não fazer.

Zac Amos é um escritor de tecnologia que se concentra em inteligência artificial. Ele também é o editor de recursos do ReHack, onde você pode ler mais sobre seu trabalho.