Connect with us

Comment l’intelligence artificielle est utilisée dans les tribunaux

Intelligence artificielle

Comment l’intelligence artificielle est utilisée dans les tribunaux

mm
Closeup of a judge's gavel in a courtroom.

Chaque jour, divers professionnels du système de justice mènent des recherches juridiques, communiquent avec les clients, gèrent les affaires judiciaires et interprètent la loi. Leur travail est fondamental pour une société sûre et fonctionnelle, c’est pourquoi beaucoup sont intrigués par la promesse d’une productivité accrue. Les avocats — en particulier les défenseurs publics — ont souvent des charges de travail énormes. Les juges rédigent des opinions dissidentes qui peuvent troubler les eaux pour les procédures judiciaires futures. Les réglementations et les statuts changent constamment. Dans ce système complexe, l’intelligence artificielle (IA) est apparue comme un moyen d’automatiser les processus administratifs chronophages.

Applications quotidiennes de l’IA dans les tribunaux

Une grande partie de la semaine de travail d’un avocat est consacrée à des tâches administratives chronophages, et non à convaincre les jurés dans les salles d’audience. Ils passent 80% de leur temps à collecter des informations et seulement 20% sur l’analyse et les implications. Pour construire des affaires, ils doivent passer au peigne fin les précédents judiciaires, les réglementations et les statuts. L’IA pourrait rationaliser de telles tâches, leur faisant ainsi gagner des heures innombrables.

Les assistants IA peuvent aider les avocats à optimiser leurs horaires et à gérer leurs charges de travail, en surmontant les problèmes de dockage. L’IA générative peut les aider, ainsi que leur personnel, à mener des recherches juridiques. Les juges peuvent consulter des outils d’évaluation des risques algorithmiques lorsqu’ils prennent des décisions concernant les cautionnements.

L’outil peut également aider d’autres professionnels du droit. Les modèles de traitement du langage naturel peuvent aider les sténographes avec la transcription, tandis que les grands modèles de langage (LLM) peuvent aider les interprètes avec la traduction. L’IA générative peut rédiger des documents, automatiser la communication avec les clients ou organiser les dossiers d’affaires pour les parajuristes et les assistants juridiques.

Avantages de l’intégration de l’IA dans les fonctions judiciaires

L’IA peut accélérer les tâches chronophages et répétitives, libérant ainsi les professionnels pour des questions plus importantes ou plus urgentes. Cela serait particulièrement avantageux pour les défenseurs publics, qui traitent des centaines d’affaires et d’appels chaque année. En moyenne, ils passent entre 13,5 et 286 heures par affaire pour représenter les prévenus.

Les professionnels du droit ne sont pas les seuls à pouvoir bénéficier de l’utilisation de l’IA. Les plaideurs qui se représentent eux-mêmes en cour peuvent demander des conseils juridiques à des chatbots IA.

L’IA peut rendre la représentation juridique plus accessible pour les populations défavorisées et sous-représentées. Les cabinets d’avocats peuvent l’utiliser pour offrir des services juridiques pro bono à des personnes à faible revenu. Puisqu’un modèle peut interagir avec des milliers ou même des millions de personnes en même temps, il peut être mis à l’échelle à mesure que le cabinet d’avocats se développe.

Préoccupations juridiques et éthiques associées à l’IA

Bien que l’IA puisse être bénéfique pour les plaideurs, les avocats, les juges et les interprètes, une mauvaise utilisation pourrait entraîner des jugements juridiques erronés. En 2024, l’Institut pour l’IA centrée sur l’humain de Stanford a constaté que les LLM les plus avancés ont un taux d’hallucination de 69% à 88% en réponse à des requêtes juridiques.

Les LLM produisent souvent avec confiance des informations erronées ou fictives. Par exemple, ils peuvent citer des précédents judiciaires inexistants ou fabriquer des citations lors de la recherche juridique. Malgré leur apparence plausible, ces hallucinations sont inexactes.

La tromperie intentionnelle est également possible, compte tenu de la puissance de l’IA générative. Un plaideur pourrait l’utiliser pour simuler un cambriolage en générant une vidéo de sécurité domestique montrant le défendeur voler ses biens. Cet exemple n’est pas entièrement hypothétique, car les deepfakes ont déjà été utilisés dans les tribunaux.

Aux États-Unis, 80% des affaires judiciaires reposent sur des vidéos — y compris des images de caméras de surveillance, des enregistrements de téléphone portable ou des clips de surveillance — à un certain degré. C’est pourquoi les professionnels du droit sont profondément préoccupés par les deepfakes. En septembre 2025, un juge a rejeté une affaire civile après avoir déterminé qu’un témoignage de témoin enregistré sur vidéo était un deepfake.

Les acteurs malveillants pourraient cibler les outils de recherche juridique IA pour perturber le système de justice. Les recherches montrent qu’il est possible d’empoisonner 0,01% des échantillons d’un jeu de données d’entraînement avec des outils existants. Cela peut sembler sans importance, mais un taux d’empoisonnement aussi bas que 0,001% peut modifier définitivement la sortie. Les utilisateurs peuvent accéder à environ 30% des échantillons dans n’importe quel LLM, ce qui rend la corruption étonnamment facile.

Cas réels où l’IA a été utilisée dans les tribunaux

L’IA pourrait être avantageuse pour les professionnels du droit et les personnes se représentant elles-mêmes. Cependant, la plupart des exemples du monde réel qui font les gros titres ne sont pas favorables. En raison de préoccupations généralisées concernant les implications juridiques et éthiques de l’IA dans les tribunaux, les pires exemples reçoivent le plus d’attention.

En mai 2025, le juge fédéral Michael Wilner voulait en savoir plus sur les arguments que certains avocats avaient présentés dans un dépôt. Cependant, les articles qu’ils citaient n’existaient pas. Après avoir été pressés pour plus de détails, ils ont présenté un nouveau mémoire avec plus d’inexactitudes que le premier.

Lorsque Wilner a ordonné qu’ils fournissent un témoignage sous serment pour expliquer les erreurs, ils ont admis avoir utilisé les modèles d’IA Gemini de Google et les modèles d’IA spécifiques au droit pour rédiger le document. Le juge a imposé des sanctions totalisant 31 000 dollars contre le cabinet d’avocats. Même s’ils n’ont pas saisi d’informations confidentielles ou non publiques, ils ont néanmoins gaspillé le temps de la cour.

Ce ne sont pas seulement les avocats et les plaideurs qui font un mauvais usage de l’IA. En 2025, deux juges fédéraux américains ont retiré leurs décisions après qu’il a été découvert que leur personnel de la cour avait utilisé des outils d’IA pour la recherche juridique, aboutissant à des citations de cas erronées et hallucinées. Même s’ils ont blâmé les décisions erronées sur l’IA, il est de leur responsabilité de lire l’affaire qu’ils citent.

Ce ne sont pas des cas isolés mettant en lumière de petits cabinets d’avocats locaux obscurs — ce sont des avocats et des juges fédéraux de premier plan qui commettent des erreurs embarrassantes et évitables. La faute ne retombe pas uniquement sur les algorithmes intelligents, non plus. À la fin de la journée, l’IA n’est qu’un outil. Que son impact soit positif ou négatif dépend de l’utilisateur.

Comment le système de justice devrait utiliser l’IA

Les LLM accessibles au public sont des risques d’exactitude et de sécurité qui attendent de se produire. Les modèles de génération assistée par récupération (RAG) spécifiques au domaine sont promus comme une solution pour les hallucinations d’IA, car ils récupèrent des données pertinentes à partir de bases de connaissances externes fiables avant de générer une réponse.

Cependant, un modèle RAG n’est pas une solution miracle, car le droit n’est pas entièrement composé de faits indiscutables et vérifiables. Les jurés sont influencés par des avocats charismatiques. Les juges rédigent des opinions pour expliquer la raison de leurs décisions. Les lois diffèrent entre les pays, les États et les localités. Il y a une marge d’erreur dans cette zone grise.

Le droit est souvent sujet à interprétation — c’est pourquoi les avocats et les juges existent en premier lieu. Les humains ne peuvent pas s’attendre à ce que l’IA soit une autorité infaillible sur le sujet. Même si l’utilisation de RAG est un pas dans la bonne direction, assurer une surveillance continue avec une approche humaine dans la boucle est clé.

Comment l’IA sera-t-elle utilisée dans les tribunaux futurs ?

Les tribunaux s’appuient sur la documentation pertinente étayée par des citations exactes. Malgré son adoption généralisée par les parajuristes et les avocats pour gagner du temps et des efforts sur les tâches administratives, l’IA a encore du mal à récupérer ces informations.

Les hallucinations d’IA ne sont pas exclusives aux tribunaux américains. Dans un cas au Royaume-Uni, le plaideur a demandé près de 120 millions de dollars en dommages-intérêts contre la Qatar National Bank. La cour a constaté que 40% des citations de droit de leur affaire étaient entièrement fictives. Même les affaires réelles étaient remplies de fausses citations. Finalement, le plaideur a admis avoir utilisé des outils d’IA pour la recherche juridique.

Même si leur affaire était solide, les hallucinations d’IA ont endommagé leur crédibilité et leur réputation, ce qui a potentiellement influencé le résultat contre eux. Pour éviter des erreurs similaires à l’avenir, le droit doit rattraper son retard avec l’IA.

Les règles régissant l’utilisation et la surveillance de l’IA doivent être détaillées et robustes. Les tribunaux avec des « accords verbaux » trouveront probablement du personnel qui utilise toujours l’IA. Comme les professionnels du droit le savent, les règles nécessitent un mécanisme d’application. Des mesures disciplinaires et des sanctions aideront les professionnels à comprendre la gravité d’une utilisation sûre et éthique de l’IA.

Le côté positif de l’utilisation de l’IA dans les tribunaux

Ces erreurs à haut risque soulèvent davantage de questions sur l’intégrité de la recherche. Les outils d’IA ont-ils involontairement révélé que les avocats ne vérifient pas la recherche juridique et que les juges mettent en dossier des brouillons non vérifiés ? Pour mieux ou pour pis, l’IA fait désormais partie du système de justice. Comme n’importe quel autre outil, son impact est positif ou négatif en fonction de son utilisation. Le côté positif est que même les erreurs embarrassantes fournissent aux professionnels un guide sur ce qu’il ne faut pas faire.

Zac Amos est un écrivain technique qui se concentre sur l'intelligence artificielle. Il est également le rédacteur en chef des fonctionnalités chez ReHack, où vous pouvez lire davantage de ses travaux.