Inteligencia artificial
Cómo se está utilizando la Inteligencia Artificial en los Tribunales
Todos los días, varios profesionales del sistema de justicia realizan investigaciones legales, se comunican con clientes, gestionan casos judiciales e interpretan la ley. Su trabajo es fundamental para una sociedad segura y funcional, por lo que muchos se sienten atraídos por la promesa de una mayor productividad. Los abogados, especialmente los defensores públicos, a menudo tienen una gran carga de casos. Los jueces escriben opiniones disidentes que pueden confundir las aguas para los procedimientos legales futuros. Las regulaciones y estatutos cambian constantemente. Dentro de este sistema complejo, la inteligencia artificial (IA) ha surgido como un medio para automatizar los procesos administrativos que consumen mucho tiempo.
Aplicaciones cotidianas de la IA en los Tribunales
Gran parte de la semana laboral de un abogado se pasa en tareas administrativas que consumen mucho tiempo, y no en convencer a los jurados en los tribunales. Pasan 80% de su tiempo recopilando información y solo el 20% en análisis e implicaciones. Para construir casos, deben buscar meticulosamente en la jurisprudencia, regulaciones y estatutos. La IA podría simplificar tales tareas, ahorrándoles innumerables horas.
Los asistentes de IA pueden ayudar a los abogados a optimizar sus horarios y gestionar sus cargas de casos, superando problemas de agenda. La IA generativa puede ayudarlos a ellos y a su personal a realizar investigaciones legales. Los jueces pueden consultar herramientas de evaluación de riesgo algorítmico al tomar decisiones sobre fianzas.
La herramienta también puede ayudar a otros profesionales legales. Los modelos de procesamiento de lenguaje natural pueden ayudar a los taquígrafos con la transcripción, mientras que los grandes modelos de lenguaje (LLM) pueden ayudar a los intérpretes con la traducción. La IA generativa puede redactar documentos, automatizar la comunicación con los clientes o organizar archivos de casos para los asistentes legales y paralegales.
Ventajas de Integrar la IA en las Funciones Judiciales
La IA puede acelerar tareas repetitivas que consumen mucho tiempo, liberando a los profesionales para asuntos más importantes o urgentes. Esto sería particularmente ventajoso para los defensores públicos, que manejan cientos de casos y apelaciones cada año. En promedio, pasan desde 13.5 a 286 horas por caso representando a los acusados.
Los profesionales legales no son los únicos que pueden beneficiarse del uso de la IA. Los litigantes que se representan a sí mismos en el tribunal pueden buscar orientación legal en chatbots de IA.
La IA puede hacer que la representación legal sea más accesible para las poblaciones desfavorecidas y subrepresentadas. Las firmas de abogados pueden utilizarla para ofrecer servicios legales pro bono a personas de bajos ingresos. Dado que un modelo puede interactuar con miles o incluso millones de personas simultáneamente, puede escalar a medida que la firma de abogados se expanda.
Preocupaciones Legales y Éticas Asociadas con la IA
Aunque la IA puede ser beneficiosa para los demandantes, abogados, jueces e intérpretes, su mal uso podría llevar a juicios legales erróneos. En 2024, el Instituto de IA Centrada en el Ser Humano de Stanford encontró que los LLM de última generación tienen una tasa de alucinación del 69% al 88% en respuesta a consultas legales.
Los LLM a menudo producen con confianza información defectuosa o ficticia. Por ejemplo, pueden citar jurisprudencia inexistente o fabricar citas al realizar investigaciones legales. A pesar de parecer plausible, estas alucinaciones son inexactas.
La decepción intencional también es posible, dada la potencia de la IA generativa. Un demandante podría utilizarla para fingir un allanamiento de morada generando un video de seguridad doméstico que muestra al acusado robando sus pertenencias. Este ejemplo no es completamente hipotético, ya que los deepfakes ya se han utilizado en el tribunal.
En los EE. UU., 80% de los casos judiciales dependen de videos, incluidas grabaciones de cámaras de seguridad, grabaciones de teléfonos celulares o clips de vigilancia, en algún grado. Esto es por lo que los profesionales legales están profundamente preocupados por los deepfakes. En septiembre de 2025, un juez desestimó un caso civil después de determinar que el testimonio de un testigo grabado era un deepfake.
Los actores maliciosos podrían apuntar a las herramientas de investigación legal de IA para disruptar el sistema de justicia. La investigación muestra que es posible envenenar 0.01% de las muestras del conjunto de datos de entrenamiento con herramientas existentes. Eso puede parecer insignificante, pero una tasa de envenenamiento tan baja como 0.001% puede alterar permanentemente la salida. Los usuarios pueden acceder alrededor del 30% de las muestras en cualquier LLM dado, lo que hace que la corrupción sea sorprendentemente fácil.
Casos Reales en los que se Utilizó la IA en el Tribunal
La IA podría ser ventajosa para los profesionales legales y las personas que se representan a sí mismas en el tribunal. Sin embargo, la mayoría de los ejemplos del mundo real que están haciendo titulares no son favorables. Debido a la preocupación generalizada sobre las implicaciones legales y éticas de la IA en el tribunal, los peores ejemplos reciben la mayor atención.
En mayo de 2025, el juez federal Michael Wilner quería saber más sobre los argumentos que algunos abogados habían presentado en una presentación. Sin embargo, los artículos que citaron no existían. Después de ser presionados para obtener más detalles, entregaron un nuevo informe con más inexactitudes que el primero.
Cuando Wilner ordenó que dieran testimonio jurado explicando los errores, admitieron que habían utilizado Google Gemini y modelos de IA específicos de la ley para redactar el documento. El juez impuso sanciones por un total de $31,000 contra la firma de abogados. Aunque no ingresaron información confidencial o no pública, aún así malgastaron el tiempo del tribunal.
No solo los abogados y los demandantes malutilizan la IA. En 2025, dos jueces federales de distrito de EE. UU. retiraron sus fallos después de que se descubriera que su personal del tribunal había utilizado herramientas de IA para investigaciones legales, lo que resultó en citas de casos con errores y alucinaciones. Aunque culparon a las decisiones defectuosas a la IA, es su responsabilidad leer el caso que citan.
Estos no son casos aislados que destacan pequeñas firmas de abogados locales oscuras, estos son abogados y jueces federales de alto perfil que cometen errores embarazosos y evitables. La culpa no recae únicamente en los algoritmos inteligentes, tampoco. Al final del día, la IA es solo una herramienta. Ya sea que su impacto sea positivo o negativo depende del usuario.
Cómo Debe Utilizar el Sistema de Justicia la IA
Los LLM de acceso público son riesgos de precisión y seguridad que están por suceder. Los modelos de generación mejorada con recuperación (RAG) específicos de dominio se promocionan como una solución para las alucinaciones de la IA porque recuperan datos relevantes de bases de conocimiento externas de confianza antes de generar una respuesta.
Sin embargo, un modelo RAG no es una bala de plata porque la ley no se compone enteramente de hechos indiscutibles y verificables. Los jurados se dejan llevar por abogados carismáticos. Los jueces escriben opiniones para explicar el razonamiento detrás de sus decisiones. Las leyes difieren entre países, estados y localidades. Hay espacio para el error en esta zona gris.
La ley a menudo está sujeta a interpretación, esta es la razón por la que los abogados y los jueces existen en primer lugar. Los humanos no pueden esperar que la IA sea una autoridad infalible sobre el tema. Si bien utilizar RAG es un paso en la dirección correcta, garantizar la supervisión continua con un enfoque de humano en el bucle es clave.
Cómo se Utilizará la IA en los Tribunales Futuros
Los tribunales dependen de la documentación relevante respaldada por citas precisas. A pesar de ser ampliamente adoptada por los asistentes legales y los abogados por igual para ahorrar tiempo y esfuerzo en tareas administrativas, la IA todavía lucha para recuperar esta información.
Las alucinaciones de la IA no son exclusivas de los tribunales de EE. UU. En un caso en el Reino Unido, el demandante buscó nearly $120 millones en daños y perjuicios contra el Banco Nacional de Catar. El tribunal encontró que el 40% de las citas de jurisprudencia de su caso eran completamente ficticias. Incluso los casos reales estaban llenos de citas falsas. Finalmente, el demandante admitió haber utilizado herramientas de IA para investigaciones legales.
Incluso si su caso era sólido, las alucinaciones de la IA dañaron su credibilidad y reputación, lo que potencialmente podría influir en el resultado en su contra. Para evitar errores similares en el futuro, la ley debe ponerse al día con la IA.
Las reglas que gobiernan el uso de la IA y la supervisión deben ser detalladas y robustas. Los tribunales con “acuerdos verbales” probablemente encontrarán que el personal sigue utilizando la IA. Como saben los profesionales legales, las reglas requieren un mecanismo de aplicación. Las medidas disciplinarias y las sanciones ayudarán a los profesionales a entender la gravedad del uso seguro y ético de la IA.
El Lado Positivo del Uso de la IA en el Tribunal
Estos errores de alto riesgo plantean más preguntas sobre la integridad de la investigación. ¿Han revelado las herramientas de IA inadvertidamente que los abogados no verifican las investigaciones legales y los jueces archivan borradores no verificados? Para mejor o para peor, la IA se está convirtiendo en parte del sistema de justicia. Como cualquier otra herramienta, ya sea que su impacto sea positivo o negativo depende de cómo se utilice. El lado positivo es que incluso los errores vergonzosos proporcionan a los profesionales una guía sobre qué no hacer.












