Intelligence artificielle
Surmonter les hallucinations des LLM à l’aide de la génération augmentée de récupération (RAG)
Les grands modèles de langage (LLM) révolutionnent la façon dont nous traitons et générons le langage, mais ils sont imparfaits. Tout comme les humains peuvent voir des formes dans les nuages ou des visages sur la lune, les LLM peuvent également « halluciner », en créant des informations qui ne sont pas exactes. Ce phénomène, connu sous le nom d’hallucinations des LLM, pose un problème croissant à mesure que l’utilisation des LLM s’étend.
Les erreurs peuvent confondre les utilisateurs et, dans certains cas, même entraîner des problèmes juridiques pour les entreprises. Par exemple, en 2023, un vétéran de l’armée de l’air, Jeffery Battle (connu sous le nom de The Aerospace Professor), a déposé une plainte contre Microsoft lorsqu’il a découvert que le moteur de recherche Bing de Microsoft, alimenté par ChatGPT, fournissait parfois des informations inexactes et préjudiciables sur sa recherche de nom. Le moteur de recherche le confond avec un criminel condamné, Jeffery Leon Battle.
Pour lutter contre les hallucinations, la génération augmentée de récupération (RAG) est apparue comme une solution prometteuse. Elle intègre des connaissances provenant de bases de données externes pour améliorer la précision et la crédibilité des LLM. Examinons de plus près comment la RAG rend les LLM plus précis et fiables. Nous discuterons également de la capacité de la RAG à contrer efficacement le problème des hallucinations des LLM.
Comprendre les hallucinations des LLM : causes et exemples
Les LLM, y compris des modèles réputés comme ChatGPT, ChatGLM et Claude, sont formés sur des ensembles de données textuelles étendus, mais ne sont pas immunisés contre la production de sorties incorrectes, un phénomène appelé « hallucinations ». Les hallucinations se produisent parce que les LLM sont formés pour créer des réponses significatives en fonction des règles de langage sous-jacentes, indépendamment de leur exactitude factuelle.
Une étude Tidio a révélé que 72 % des utilisateurs pensent que les LLM sont fiables, mais que 75 % ont reçu des informations incorrectes de l’IA au moins une fois. Même les modèles de LLM les plus prometteurs, comme GPT-3.5 et GPT-4, peuvent parfois produire du contenu inexact ou sans sens.
Voici un aperçu rapide des types d’hallucinations des LLM les plus courants :
Types d’hallucinations d’IA courants :
- Conflation de sources : Il s’agit de la fusion de détails provenant de diverses sources, entraînant des contradictions ou même des sources fabriquées.
- Erreurs factuelles : Les LLM peuvent générer du contenu avec une base factuelle inexacte, en particulier compte tenu des inexactitudes inhérentes à Internet.
- Informations sans sens : Les LLM prédisent le mot suivant en fonction de la probabilité. Cela peut entraîner du texte grammaticalement correct mais sans sens, trompant les utilisateurs sur l’autorité du contenu.
L’année dernière, deux avocats ont fait face à des sanctions possibles pour avoir référencé six affaires inexistantes dans leurs documents juridiques, induits en erreur par les informations générées par ChatGPT. Cet exemple met en évidence l’importance de l’approche du contenu généré par les LLM avec un œil critique, soulignant la nécessité d’une vérification pour garantir la fiabilité. Bien que sa capacité créative profite à des applications comme la narration, elle pose des défis pour les tâches nécessitant une stricte adhésion aux faits, telles que la réalisation de recherches universitaires, la rédaction de rapports d’analyse médicale et financière, et la fourniture de conseils juridiques.
Explorer la solution aux hallucinations des LLM : comment fonctionne la génération augmentée de récupération (RAG)
En 2020, des chercheurs en LLM ont introduit une technique appelée génération augmentée de récupération (RAG) pour atténuer les hallucinations des LLM en intégrant une source de données externe. Contrairement aux LLM traditionnels qui s’appuient uniquement sur leurs connaissances préformées, les modèles de LLM basés sur la RAG génèrent des réponses factuellement exactes en récupérant dynamiquement des informations pertinentes à partir d’une base de données externe avant de répondre à des questions ou de générer du texte.
Décomposition du processus RAG :

Étapes du processus RAG : Source
Étape 1 : Récupération
Le système recherche une base de connaissances spécifique pour des informations liées à la requête de l’utilisateur. Par exemple, si quelqu’un demande qui a gagné la dernière Coupe du monde de football, il recherche les informations de football les plus pertinentes.
Étape 2 : Augmentation
La requête d’origine est ensuite enrichie avec les informations trouvées. En utilisant l’exemple du football, la requête « Qui a gagné la Coupe du monde de football ? » est mise à jour avec des détails spécifiques comme « L’Argentine a gagné la Coupe du monde de football ».
Étape 3 : Génération
Avec la requête enrichie, le LLM génère une réponse détaillée et exacte. Dans notre cas, il crée une réponse basée sur les informations augmentées sur l’Argentine qui a gagné la Coupe du monde.
Cette méthode aide à réduire les inexactitudes et garantit que les réponses des LLM sont plus fiables et ancrées dans des données exactes.
Avantages et inconvénients de la RAG pour réduire les hallucinations
La RAG a montré son potentiel pour réduire les hallucinations en corrigeant le processus de génération. Ce mécanisme permet aux modèles RAG de fournir des informations plus exactes, plus à jour et plus pertinentes dans leur contexte.
Certes, discuter de la génération augmentée de récupération (RAG) dans un sens plus général permet une compréhension plus large de ses avantages et de ses limites dans diverses mises en œuvre.
Avantages de la RAG :
- Meilleure recherche d’informations : La RAG trouve rapidement des informations exactes à partir de grandes sources de données.
- Contenu amélioré : Elle crée un contenu clair et bien adapté aux besoins des utilisateurs.
- Utilisation flexible : Les utilisateurs peuvent ajuster la RAG pour répondre à leurs besoins spécifiques, comme utiliser leurs propres sources de données, ce qui améliore l’efficacité.
Défis de la RAG :
- Besoin de données spécifiques : Comprendre avec précision le contexte de la requête pour fournir des informations pertinentes et précises peut être difficile.
- Évolutivité : Étendre le modèle pour gérer de grandes bases de données et des requêtes tout en maintenant les performances est difficile.
- Mise à jour continue : La mise à jour automatique de la base de données de connaissances avec les dernières informations est gourmande en ressources.
Explorer les alternatives à la RAG
En plus de la RAG, voici quelques autres méthodes prometteuses qui permettent aux chercheurs en LLM de réduire les hallucinations :
- G-EVAL : Vérifie la exactitude du contenu généré avec un ensemble de données de confiance, améliorant ainsi la fiabilité.
- SelfCheckGPT : Vérifie et corrige automatiquement ses propres erreurs pour maintenir des sorties exactes et cohérentes.
- Ingénierie de prompt : Aide les utilisateurs à concevoir des invites de saisie précises pour guider les modèles vers des réponses exactes et pertinentes.
- Affinage : Ajuste le modèle pour des ensembles de données spécifiques à la tâche pour améliorer les performances dans un domaine spécifique.
- LoRA (Low-Rank Adaptation) : Cette méthode modifie une petite partie des paramètres du modèle pour une adaptation spécifique à la tâche, améliorant ainsi l’efficacité.
L’exploration de la RAG et de ses alternatives met en évidence l’approche dynamique et multiforme pour améliorer la précision et la fiabilité des LLM. À mesure que nous progressons, l’innovation continue dans des technologies comme la RAG est essentielle pour relever les défis inhérents aux hallucinations des LLM.
Pour rester à jour avec les derniers développements en matière d’IA et d’apprentissage automatique, y compris des analyses approfondies et des actualités, visitez unite.ai.










