Entre em contato

Como a Inteligência Artificial está sendo usada nos tribunais

Inteligência artificial

Como a Inteligência Artificial está sendo usada nos tribunais

mm
Detalhe do martelo de um juiz em um tribunal.

Every day, various justice system professionals conduct legal research, communicate with clients, manage court cases and interpret the law. Their work is foundational to a safe and functioning society, which is why many are intrigued by the promise of higher productivity. Lawyers — especially public defenders — often have huge caseloads. Judges write dissenting opinions that can muddy the waters for future legal proceedings. Regulations and statutes constantly change. Within this complex system, artificial intelligence (AI) has emerged as a means to automate time-consuming administrative processes. 

Aplicações cotidianas da IA ​​nos tribunais

Much of a lawyer’s work week is spent on time-consuming administrative tasks, not swaying juries in courtrooms. They spend 80% do tempo collecting information and just 20% on analysis and implications. To build cases, they must meticulously comb through case law, regulations and statutes. AI could streamline such tasks, saving them countless hours. 

Assistentes de IA podem ajudar advogados a otimizar agendas e gerenciar o volume de processos, superando problemas de controle de prazos. A IA generativa pode auxiliar advogados e suas equipes na realização de pesquisas jurídicas. Juízes podem consultar ferramentas algorítmicas de avaliação de risco ao tomar decisões sobre fiança. 

The tool can help other legal professionals, too. Natural language processing models can help stenographers with transcription, while large language models (LLMs) can assist interpreters with translation. Generative AI can draft documents, automate client communication or organize case files for paralegals and legal assistants. 

Benefícios da integração da IA ​​nas funções judiciais

A IA pode acelerar tarefas repetitivas e demoradas, liberando profissionais para assuntos mais importantes ou urgentes. Isso seria particularmente vantajoso para defensores públicos, que lidam com centenas de casos e recursos a cada ano. Em média, eles gastam entre... 13.5 a 286 horas por caso representing defendants. 

Os profissionais da área jurídica não são os únicos que podem se beneficiar do uso da IA. Litigantes que se representam em juízo podem buscar orientação jurídica por meio de chatbots de IA. 

A IA pode tornar a representação legal mais acessível para populações carentes e sub-representadas. Escritórios de advocacia podem utilizá-la para oferecer serviços jurídicos gratuitos a indivíduos de baixa renda. Como um único modelo pode interagir com milhares ou até milhões de pessoas simultaneamente, ele pode ser dimensionado conforme o escritório de advocacia cresce. 

Questões legais e éticas associadas à IA

Embora a IA possa ser benéfica para demandantes, advogados, juízes e intérpretes, o uso indevido pode levar a julgamentos jurídicos errôneos. Em 2024, o Instituto de IA Centrada no Ser Humano de Stanford constatou que os mestrados em Direito (LLMs) mais modernos apresentam um Taxa de alucinações de 69% a 88% Em resposta a questões legais.

LLMs often confidently output flawed or fictitious information. For example, they may cite nonexistent case law or fabricate quotes when conducting legal research. Despite appearing plausible, these hallucinations are inaccurate. 

O engano intencional também é possível, dado o poder da IA ​​generativa. Um demandante poderia usá-la para simular um arrombamento, gerando um vídeo de segurança residencial que mostre o réu roubando seus pertences. Este exemplo não é totalmente hipotético, já que deepfakes já foram usados ​​em tribunais. 

Nos E.U.A, 80% of court cases dependem, em certa medida, de vídeos — incluindo imagens de câmeras corporais, gravações de celulares ou clipes de vigilância. É por isso que os profissionais do direito estão profundamente preocupados com os deepfakes. Em setembro de 2025, um juiz arquivou um processo civil após determinar que o depoimento de uma testemunha gravado em vídeo era um deepfake. 

Bad actors could target AI legal research tools to disrupt the justice system. Research shows it is possible to poison 0.01% das amostras de um conjunto de dados de treinamento with existing tools. That may seem inconsequential, but a poisoning rate as low as 0.001% can permanently alter output. Users can access around 30% of the samples in any given LLM, making corruption surprisingly easy. 

Real-World Cases Where AI Was Used in Court

A IA pode ser vantajosa para profissionais do direito e indivíduos que se representam a si mesmos. No entanto, a maioria dos exemplos reais que chegam às manchetes não são favoráveis. Devido à preocupação generalizada com as implicações legais e éticas da IA ​​nos tribunais, os piores exemplos recebem mais atenção. 

Em maio de 2025, o juiz federal Michael Wilner quis saber mais sobre os argumentos apresentados por alguns advogados em uma petição. No entanto, os artigos que eles citaram não existiam. Após serem pressionados a fornecer mais detalhes, eles apresentaram uma nova petição com ainda mais imprecisões do que a primeira. 

Quando Wilner ordenou que eles prestassem depoimento sob juramento explicando os erros, eles admitiram ter usado o Gemini do Google e modelos de IA específicos para a área jurídica para redigir o documento. O juiz sanções impostas totalizando US$ 31,000 contra o escritório de advocacia. Mesmo sem terem fornecido informações confidenciais ou não públicas, eles ainda assim desperdiçaram o tempo do tribunal. 

Não são apenas os advogados e os demandantes que fazem mau uso da IA. Em 2025, two U.S. federal district judges withdrew rulings Após se descobrir que a equipe do tribunal havia usado ferramentas de IA para pesquisa jurídica, resultando em citações de casos repletas de erros e distorcidas, eles atribuíram as decisões equivocadas à IA, embora seja responsabilidade deles ler os casos que citam. 

These aren’t one-off cases spotlighting small, obscure local law firms — these are big-time lawyers and federal judges making embarrassing, avoidable mistakes. The blame doesn’t fall squarely on intelligent algorithms, either. At the end of the day, AI is just a tool. Whether or not it is beneficial depends on the user. 

How the Justice System Should Be Using AI

Publicly available LLMs are accuracy and security risks waiting to happen. Domain-specific retrieval-augmented generation (RAG) models are being promoted as a solution for AI hallucinations because they retrieve relevant data from external, trusted knowledge bases before generating a response.

Contudo, um modelo RAG não é uma solução milagrosa, pois a lei não é composta inteiramente de fatos indiscutíveis e verificáveis. Os júris são influenciados por advogados carismáticos. Os juízes redigem pareceres para explicar o raciocínio por trás de suas decisões. As leis variam entre países, estados e localidades. Há margem para erros nessa área cinzenta. 

A lei muitas vezes está sujeita a interpretações — é por isso que existem advogados e juízes. Os humanos não podem esperar que a IA seja uma autoridade infalível no assunto. Embora o uso de algoritmos RAG seja um passo na direção certa, garantir uma supervisão contínua com intervenção humana é fundamental. 

How Will AI Be Used in Future Courtrooms?

Courts rely on relevant documentation supported by accurate citations. Despite being widely adopted by paralegals and lawyers alike to save time and effort on administrative tasks, AI still struggles with retrieving this information. 

As alucinações causadas por inteligência artificial não são exclusivas dos tribunais dos EUA. Em um caso no Reino Unido, o autor da ação... buscavam uma indenização de quase 120 milhões de dólares. contra o Qatar National Bank. O tribunal constatou que 40% das citações de jurisprudência eram inteiramente fictícias. Até mesmo os casos reais estavam repletos de citações falsas. Por fim, o autor da ação admitiu ter usado ferramentas de IA para pesquisa jurídica. 

Even if their case was solid, AI hallucinations damaged their credibility and reputation, potentially influencing the outcome against them. To avoid similar blunders in the future, the law must catch up with AI. 

Rules governing AI use and oversight must be detailed and robust. Courtrooms with “verbal understandings” will likely find staff still using AI. As legal professionals know, rules require an enforcement mechanism. Disciplinary measures and sanctions will help professionals understand the gravity of safe, ethical AI use.

O lado positivo do uso da IA ​​nos tribunais

Esses erros de alto risco levantam novas questões sobre a integridade da pesquisa. Será que as ferramentas de IA revelaram inadvertidamente que os advogados não estão verificando as pesquisas jurídicas e que os juízes estão registrando versões não verificadas? Para o bem ou para o mal, a IA está se tornando parte do sistema judiciário. Como qualquer outra ferramenta, seu impacto, positivo ou negativo, depende de como ela é usada. O lado positivo é que mesmo gafes embaraçosas fornecem aos profissionais um guia sobre o que não fazer.

Zac Amos é um escritor de tecnologia com foco em inteligência artificial. Ele também é o editor de recursos da Rehackear, onde você pode ler mais de seu trabalho.