Contáctenos

Cómo se utiliza la inteligencia artificial en los tribunales

Inteligencia Artificial

Cómo se utiliza la inteligencia artificial en los tribunales

mm
Primer plano del mazo de un juez en una sala de audiencias.

Cada día, diversos profesionales del sistema judicial realizan investigaciones jurídicas, se comunican con los clientes, gestionan casos judiciales e interpretan la ley. Su labor es fundamental para una sociedad segura y funcional, razón por la cual muchos se sienten atraídos por la promesa de una mayor productividad. Los abogados, especialmente los defensores públicos, suelen tener una enorme carga de trabajo. Los jueces emiten votos particulares que pueden generar confusión en futuros procedimientos legales. Las regulaciones y las leyes cambian constantemente. Dentro de este complejo sistema, la inteligencia artificial (IA) ha surgido como un medio para automatizar procesos administrativos que consumen mucho tiempo. 

Aplicaciones cotidianas de la IA en los tribunales

Gran parte de la semana laboral de un abogado se dedica a tareas administrativas que consumen mucho tiempo, no a influir en los jurados en los tribunales. 80% de su tiempo Recopilan información y solo el 20% se dedica al análisis y las implicaciones. Para fundamentar sus casos, deben examinar minuciosamente la jurisprudencia, las regulaciones y las leyes. La IA podría optimizar estas tareas, ahorrándoles incontables horas. 

Los asistentes de IA pueden ayudar a los abogados a optimizar sus agendas y gestionar sus casos, superando los problemas de registro. La IA generativa puede ayudarles a ellos y a su personal a realizar investigaciones jurídicas. Los jueces pueden consultar herramientas algorítmicas de evaluación de riesgos al tomar decisiones sobre la libertad bajo fianza. 

Esta herramienta también puede ser útil para otros profesionales del derecho. Los modelos de procesamiento del lenguaje natural pueden ayudar a los taquígrafos con la transcripción, mientras que los modelos lingüísticos complejos (MLC) pueden asistir a los intérpretes con la traducción. La IA generativa puede redactar documentos, automatizar la comunicación con los clientes u organizar expedientes para asistentes jurídicos y auxiliares legales. 

Beneficios de integrar la IA en las funciones judiciales

La IA puede acelerar las tareas repetitivas y que consumen mucho tiempo, liberando a los profesionales para asuntos más importantes o urgentes. Esto sería particularmente ventajoso para los defensores públicos, que manejan cientos de casos y apelaciones cada año. En promedio, dedican entre De 13.5 a 286 horas por caso representando a los acusados. 

Los profesionales del derecho no son los únicos que pueden beneficiarse del uso de la IA. Los litigantes que se representan a sí mismos en los tribunales pueden buscar asesoramiento legal de chatbots con IA. 

La IA puede facilitar el acceso a la representación legal a poblaciones desfavorecidas y marginadas. Los bufetes de abogados pueden utilizarla para ofrecer servicios legales gratuitos a personas de bajos ingresos. Dado que un solo modelo puede interactuar con miles o incluso millones de personas simultáneamente, puede escalar a medida que el bufete crece. 

Preocupaciones legales y éticas asociadas con la IA

Aunque la IA puede ser beneficiosa para demandantes, abogados, jueces e intérpretes, su mal uso podría conducir a sentencias legales erróneas. En 2024, el Instituto de IA Centrada en el Ser Humano de Stanford descubrió que los programas de maestría en derecho (LLM) de última generación tienen una Tasa de alucinaciones del 69% al 88%. en respuesta a consultas legales.

Los estudiantes de máster en derecho suelen presentar información errónea o ficticia con gran seguridad. Por ejemplo, pueden citar jurisprudencia inexistente o inventar citas al realizar investigaciones jurídicas. Aunque parezcan plausibles, estas afirmaciones son inexactas. 

El engaño intencional también es posible, dado el poder de la IA generativa. Un demandante podría usarla para simular un robo, creando un video de seguridad doméstica que muestre al acusado robando sus pertenencias. Este ejemplo no es del todo hipotético, ya que los deepfakes ya se han utilizado en los tribunales. 

En los EE.UU, 80% de los casos judiciales Dependen en cierta medida del vídeo, incluyendo grabaciones de cámaras corporales, grabaciones de teléfonos móviles o clips de vigilancia. Por eso, los profesionales del derecho están profundamente preocupados por los deepfakes. En septiembre de 2025, un juez desestimó un caso civil tras determinar que el testimonio grabado en vídeo de un testigo era un deepfake. 

Actores malintencionados podrían atacar las herramientas de investigación legal basadas en IA para perturbar el sistema judicial. Las investigaciones demuestran que es posible envenenarlas. 0.01% de las muestras de un conjunto de datos de entrenamiento con las herramientas existentes. Esto puede parecer insignificante, pero una tasa de contaminación tan baja como el 0.001 % puede alterar permanentemente los resultados. Los usuarios pueden acceder a alrededor del 30 % de las muestras en cualquier LLM, lo que facilita sorprendentemente la corrupción de datos. 

Casos reales en los que se utilizó la IA en los tribunales

La IA podría ser ventajosa para los profesionales del derecho y las personas que se representan a sí mismas. Sin embargo, la mayoría de los ejemplos reales que acaparan los titulares no son favorables. Debido a la preocupación generalizada sobre las implicaciones legales y éticas de la IA en los tribunales, los peores ejemplos son los que reciben mayor atención. 

En mayo de 2025, el juez federal Michael Wilner quiso obtener más información sobre los argumentos presentados por algunos abogados en un escrito. Sin embargo, los artículos que citaban no existían. Tras insistir en que proporcionaran más detalles, presentaron un nuevo informe con aún más imprecisiones que el primero. 

Cuando Wilner les ordenó que prestaran declaración bajo juramento explicando los errores, admitieron haber utilizado modelos de IA específicos para derecho y de Gemini de Google para redactar el documento. El juez Se impusieron sanciones por un total de 31,000 dólares. contra el bufete de abogados. Aunque no introdujeron información confidencial o no pública, hicieron perder el tiempo al tribunal. 

No son solo los abogados y los demandantes quienes hacen mal uso de la IA. En 2025, Dos jueces federales de distrito de EE. UU. retiraron sus fallos. Tras descubrirse que su personal judicial había utilizado herramientas de IA para la investigación jurídica, lo que dio lugar a citas de casos erróneas y distorsionadas, los jueces culparon a la IA de los fallos erróneos, pero reconocieron que es su responsabilidad leer los casos que citan. 

No se trata de casos aislados que pongan en evidencia a pequeños y desconocidos bufetes de abogados locales; son abogados de renombre y jueces federales que cometen errores vergonzosos y evitables. La culpa tampoco recae únicamente en los algoritmos inteligentes. Al fin y al cabo, la IA es solo una herramienta. Su utilidad depende del usuario. 

Cómo debería el sistema judicial utilizar la IA

Los modelos de lógica descriptiva (LLM) disponibles públicamente representan riesgos potenciales para la precisión y la seguridad. Los modelos de generación aumentada con recuperación (RAG) específicos de dominio se promocionan como una solución para las deficiencias de la IA, ya que recuperan datos relevantes de bases de conocimiento externas y confiables antes de generar una respuesta.

Sin embargo, el modelo RAG no es la solución definitiva, ya que la ley no se compone exclusivamente de hechos indiscutibles y verificables. Los jurados se dejan influir por abogados carismáticos. Los jueces redactan opiniones para explicar el razonamiento detrás de sus fallos. Las leyes difieren entre países, estados y localidades. Existe margen de error en esta zona gris. 

La ley suele estar sujeta a interpretación; por eso existen abogados y jueces. Los humanos no pueden esperar que la IA sea una autoridad infalible en la materia. Si bien el uso de RAG es un paso en la dirección correcta, es fundamental garantizar una supervisión continua con intervención humana. 

¿Cómo se utilizará la IA en los tribunales del futuro?

Los tribunales se basan en la documentación pertinente respaldada por citas precisas. A pesar de su amplia adopción por parte de asistentes legales y abogados para ahorrar tiempo y esfuerzo en tareas administrativas, la IA aún tiene dificultades para recuperar esta información. 

Las alucinaciones provocadas por la IA no son exclusivas de los tribunales estadounidenses. En un caso en el Reino Unido, el demandante Reclamaban casi 120 millones de dólares en concepto de daños y perjuicios. En una demanda contra el Banco Nacional de Qatar, el tribunal determinó que el 40% de las citas jurisprudenciales eran completamente ficticias. Incluso los casos reales contenían citas falsas. Finalmente, el demandante admitió haber utilizado herramientas de inteligencia artificial para la investigación jurídica. 

Aunque su caso fuera sólido, las alucinaciones provocadas por la IA dañaron su credibilidad y reputación, influyendo potencialmente en el resultado del juicio. Para evitar errores similares en el futuro, la ley debe adaptarse a la IA. 

Las normas que rigen el uso y la supervisión de la IA deben ser detalladas y rigurosas. Es probable que en los tribunales con acuerdos verbales se encuentre personal que aún utilice IA. Como bien saben los profesionales del derecho, las normas requieren un mecanismo de aplicación. Las medidas disciplinarias y las sanciones ayudarán a los profesionales a comprender la importancia de un uso seguro y ético de la IA.

El lado positivo del uso de la IA en los tribunales

Estos errores de alto riesgo plantean nuevas dudas sobre la integridad de la investigación. ¿Acaso las herramientas de IA han revelado, sin querer, que los abogados no verifican las investigaciones jurídicas y que los jueces aprueban borradores sin verificar? Para bien o para mal, la IA se está integrando al sistema judicial. Como cualquier otra herramienta, su impacto, positivo o negativo, depende de cómo se utilice. Lo positivo es que incluso los errores más garrafales sirven de guía para que los profesionales sepan qué no hacer.

Zac Amos es un escritor de tecnología que se enfoca en inteligencia artificial. También es el editor de características de Rehack, donde puedes leer más de su trabajo.