Des leaders d'opinion
Les RAG sont-ils la solution aux hallucinations de l’IA ?

L’IA, de par sa conception, a un « esprit qui lui est propre ». L’un des inconvénients de cette situation est que les modèles d’IA générative fabriquent occasionnellement des informations dans le cadre d’un phénomène appelé « hallucinations de l’IA », dont l’un des premiers exemples a été mis en lumière lorsqu’un juge de New York. réprimandé des avocats pour avoir utilisé un mémoire juridique rédigé par ChatGPT faisant référence à des affaires judiciaires inexistantes. Plus récemment, il y a eu des incidents où des moteurs de recherche générés par l'IA demandaient aux utilisateurs de consommer des pierres pour des bienfaits pour la santé, ou pour utiliser des produits non toxiques colle pour aider le fromage à adhérer à la pizza.
Alors que GenAI devient de plus en plus omniprésent, il est important que les utilisateurs reconnaissent que les hallucinations sont désormais un problème. inévitable aspect des solutions GenAI. Construites sur des modèles de langage étendus (LLM), ces solutions s'appuient souvent sur de grandes quantités de sources disparates susceptibles de contenir au moins des informations inexactes ou obsolètes. Ces réponses fabriquées constituent entre 3% et 10% des réponses générées par les chatbots IA aux invites des utilisateurs. À la lumière de l'IA "boîte noire" nature – dans laquelle, en tant qu'humains, nous avons des difficultés extraordinaires à examiner exactement comment l'IA génère ses résultats, – ces hallucinations peuvent être presque impossibles à retracer et à comprendre pour les développeurs.
Inévitables ou non, les hallucinations de l’IA sont au mieux frustrantes, au pire dangereuses et contraires à l’éthique.
Dans de nombreux secteurs, notamment la santé, la finance et la sécurité publique, les ramifications des hallucinations vont de la propagation de fausses informations à la compromission de données sensibles, voire à des incidents potentiellement mortels. Si les hallucinations continuent à rester incontrôlées, le bien-être des utilisateurs et la confiance de la société dans les systèmes d’IA seront tous deux compromis.
En tant que tel, il est impératif que les responsables de cette technologie puissante reconnaissent et traitent les risques d’hallucinations de l’IA afin de garantir la crédibilité des résultats générés par LLM.
Les RAG comme point de départ pour résoudre les hallucinations
Une méthode qui s’est imposée pour atténuer les hallucinations est génération augmentée par récupération, ou RAG. Cette solution améliore la fiabilité du LLM grâce à l'intégration de magasins d'informations externes – extrayant les informations pertinentes d'une base de données fiable choisie en fonction de la nature de la requête – pour garantir des réponses plus fiables à des requêtes spécifiques.
Certaines industries étant expert ont postulé que RAG seul peut résoudre les hallucinations. Mais les bases de données intégrées à RAG peuvent toujours inclure des données obsolètes, ce qui pourrait générer des informations fausses ou trompeuses. Dans certains cas, l'intégration de données externes via les RAG peut même augmenter le risque d'hallucinations dans les grands modèles de langage : si un modèle d'IA s'appuie de manière disproportionnée sur une base de données obsolète qu'il perçoit comme étant entièrement à jour, l'étendue des hallucinations peut devenir encore plus grave.
AI Guardrails – Combler les lacunes de RAG
Comme vous pouvez le constater, les RAG sont prometteurs pour atténuer les hallucinations de l’IA. Cependant, les industries et les entreprises qui se tournent vers ces solutions doivent également comprendre leurs limites inhérentes. En effet, lorsqu’elles sont utilisées en tandem avec les RAG, il existe des méthodologies complémentaires qui devraient être utilisées pour traiter les hallucinations LLM.
Par exemple, les entreprises peuvent utiliser l'IA en temps réel garde-corps pour sécuriser les réponses LLM et atténuer les hallucinations de l’IA. Les garde-corps agissent comme un réseau qui vérifie toutes les sorties LLM pour détecter tout contenu fabriqué, grossier ou hors sujet avant qu'il n'atteigne les utilisateurs. Cette approche middleware proactive garantit la fiabilité et la pertinence de la récupération dans les systèmes RAG, renforçant ainsi la confiance entre les utilisateurs et garantissant des interactions sécurisées qui correspondent à la marque d'une entreprise.
Il existe également l'approche « ingénierie d'invite », qui nécessite que l'ingénieur modifie l'invite principale du backend. En ajoutant des contraintes prédéterminées aux invites acceptables – en d’autres termes, en surveillant non seulement où le LLM obtient des informations, mais également comment les utilisateurs lui demandent des réponses – les invites conçues peuvent guider les LLM vers des résultats plus fiables. Le principal inconvénient de cette approche est que ce type d’ingénierie rapide peut être une tâche extrêmement chronophage pour les programmeurs, qui sont souvent déjà à court de temps et de ressources.
L'approche de « réglage fin » consiste à former des LLM sur des ensembles de données spécialisés pour affiner les performances et atténuer le risque d’hallucinations. Cette méthode entraîne des LLM spécialisés dans des tâches spécifiques à tirer parti de domaines spécifiques et fiables, améliorant ainsi la précision et la fiabilité des résultats.
Il est également important de considérer l’impact de la longueur des entrées sur les performances de raisonnement des LLM – en effet, de nombreux utilisateurs ont tendance à penser que plus leur invite est étendue et remplie de paramètres, plus les résultats seront précis. Cependant, un étude récente a révélé que la précision des résultats du LLM diminue à mesure que la longueur d’entrée augmente. Par conséquent, l’augmentation du nombre de directives attribuées à une invite donnée ne garantit pas une fiabilité constante dans la génération d’applications d’IA génératives fiables.
Ce phénomène, connu sous le nom de surcharge d'invites, met en évidence les risques inhérents à la conception d'invites trop complexes : plus une invite est formulée de manière large, plus les portes s'ouvrent à des informations inexactes et à des hallucinations alors que le LLM s'efforce de répondre à tous les paramètres.
Ingénierie rapide nécessite des mises à jour et des ajustements constants et a toujours du mal à prévenir efficacement les hallucinations ou les réponses absurdes. Les garde-corps, en revanche, ne créeront pas de risque supplémentaire de production fabriquée, ce qui en fait une option intéressante pour protéger l'IA. Contrairement à l’ingénierie rapide, les garde-corps offrent une solution globale en temps réel qui garantit que l’IA générative ne créera des résultats qu’à l’intérieur de limites prédéfinies.
Bien qu'ils ne constituent pas une solution en soi, les commentaires des utilisateurs peuvent également contribuer à atténuer les hallucinations grâce à des actions telles que des votes positifs et négatifs, permettant d'affiner les modèles, d'améliorer la précision des résultats et de réduire le risque d'hallucinations.
À elles seules, les solutions RAG nécessitent des expérimentations approfondies pour obtenir des résultats précis. Mais lorsqu’ils sont associés à des réglages précis, à une ingénierie rapide et à des garde-fous, ils peuvent offrir des solutions plus ciblées et plus efficaces pour lutter contre les hallucinations. L'exploration de ces stratégies complémentaires continuera d'améliorer l'atténuation des hallucinations dans les LLM, contribuant ainsi au développement de modèles plus fiables et dignes de confiance dans diverses applications.
Les RAG ne sont pas la solution aux hallucinations de l’IA
Les solutions RAG ajoutent une immense valeur aux LLM en les enrichissant de connaissances externes. Mais avec tant de choses encore inconnues sur l’IA générative, les hallucinations restent un défi inhérent. La clé pour les combattre ne consiste pas à tenter de les éliminer, mais plutôt à atténuer leur influence grâce à une combinaison de garde-fous stratégiques, de processus de contrôle et d’incitations affinées.
Plus nous pouvons faire confiance à ce que GenAI nous dit, plus nous serons en mesure d’exploiter son puissant potentiel de manière efficace et efficiente.