Leaders d’opinion
Arrêter l’IA de créer des histoires : Un guide pour prévenir les hallucinations

L’IA révolutionne la façon dont presque toutes les industries opèrent. Elle nous rend plus efficaces, plus productifs et – lorsqu’elle est mise en œuvre correctement – meilleures dans notre travail en général. Mais à mesure que notre dépendance à cette technologie novatrice augmente rapidement, nous devons nous rappeler d’un simple fait : l’IA n’est pas infaillible. Ses sorties ne doivent pas être prises au pied de la lettre car, tout comme les humains, l’IA peut faire des erreurs.
Nous appelons ces erreurs « hallucinations de l’IA ». De telles erreurs vont de la réponse incorrecte à un problème mathématique à la fourniture d’ informations inexactes sur les politiques gouvernementales. Dans les industries hautement réglementées, les hallucinations peuvent entraîner des amendes coûteuses et des problèmes juridiques, sans oublier les clients insatisfaits.
La fréquence des hallucinations de l’IA devrait donc être une cause de préoccupation : il est estimé que les modèles de langage grandeur nature (LLM) modernes hallucinent entre 1 % et 30 % du temps. Cela entraîne des centaines de réponses fausses générées quotidiennement, ce qui signifie que les entreprises qui cherchent à exploiter cette technologie doivent être extrêmement sélectives lors du choix des outils à mettre en œuvre.
Explorons pourquoi les hallucinations de l’IA se produisent, ce qui est en jeu et comment nous pouvons les identifier et les corriger.
Des déchets en entrée, des déchets en sortie
Rappelez-vous avoir joué au jeu « téléphone » lorsque vous étiez enfant ? Comment la phrase de départ se déformait-elle à mesure qu’elle passait d’un joueur à l’autre, aboutissant à une déclaration complètement différente une fois qu’elle avait fait le tour du cercle ?
La façon dont l’IA apprend à partir de ses entrées est similaire. Les réponses que les LLM génèrent ne sont que aussi bonnes que les informations qu’elles reçoivent, ce qui signifie que le contexte incorrect peut entraîner la génération et la diffusion d’informations fausses. Si un système d’IA est construit à partir de données inexactes, obsolètes ou biaisées, alors ses sorties refléteront cela.
En tant que tel, un LLM n’est que aussi bon que ses entrées, en particulier lorsqu’il y a un manque d’intervention ou de surveillance humaine. À mesure que les solutions d’IA plus autonomes se multiplient, il est essentiel que nous fournissions aux outils le contexte de données correct pour éviter de provoquer des hallucinations. Nous avons besoin d’un entraînement rigoureux de ces données, et/ou de la capacité de guider les LLM de telle sorte qu’ils répondent uniquement à partir du contexte qui leur est fourni, plutôt que de puiser des informations n’importe où sur Internet.
Pourquoi les hallucinations sont-elles importantes ?
Pour les entreprises axées sur le client, l’exactitude est tout. Si les employés s’appuient sur l’IA pour des tâches telles que la synthèse des données client ou la réponse aux requêtes client, ils doivent faire confiance aux réponses que ces outils génèrent sont exactes.
Sinon, les entreprises risquent d’être endommagées dans leur réputation et leur fidélité client. Si les clients sont nourris avec des réponses insuffisantes ou fausses par un chatbot, ou s’ils sont laissés en attente pendant que les employés vérifient les sorties du chatbot, ils peuvent emmener leur entreprise ailleurs. Les gens ne devraient pas s’inquiéter de savoir si les entreprises avec lesquelles ils interagissent leur fournissent de fausses informations – ils veulent un soutien rapide et fiable, ce qui signifie que ces interactions doivent être correctes est d’une importance capitale.
Les dirigeants d’entreprise doivent faire leur diligence raisonnable lors de la sélection de l’outil d’IA approprié pour leurs employés. L’IA est censée libérer du temps et de l’énergie pour que le personnel se concentre sur des tâches à plus forte valeur ajoutée ; investir dans un chatbot qui nécessite une surveillance humaine constante contredit tout l’objectif de l’adoption. Mais l’existence d’hallucinations est-elle vraiment si répandue ou le terme est-il simplement utilisé à tort pour identifier n’importe quelle réponse que nous supposons être incorrecte ?
Lutter contre les hallucinations de l’IA
Prenez en considération : la théorie dynamique du sens (DMT), le concept qu’une compréhension entre deux personnes – dans ce cas, l’utilisateur et l’IA – est échangée. Mais les limites du langage et les connaissances des sujets provoquent un décalage dans l’interprétation de la réponse.
Dans le cas des réponses générées par l’IA, il est possible que les algorithmes sous-jacents ne soient pas encore pleinement équipés pour interpréter ou générer du texte d’une manière qui correspond aux attentes que nous avons en tant qu’humains. Cette discrepancy peut entraîner des réponses qui peuvent sembler exactes en surface mais qui manquent finalement de profondeur ou de nuance nécessaires pour une véritable compréhension.
De plus, la plupart des LLM à usage général ne puisent des informations que dans le contenu disponible publiquement sur Internet. Les applications d’entreprise de l’IA fonctionnent mieux lorsqu’elles sont informées par des données et des politiques spécifiques aux industries et aux entreprises individuelles. Les modèles peuvent également être améliorés avec des commentaires humains directs – en particulier des solutions agissantes conçues pour répondre au ton et à la syntaxe.
De tels outils devraient également être rigoureusement testés avant de devenir accessibles au public. Ceci est une partie critique de la prévention des hallucinations de l’IA. L’ensemble du flux devrait être testé à l’aide de conversations basées sur le tour avec le LLM jouant le rôle d’une personnalité. Cela permet aux entreprises de mieux supposer le succès général des conversations avec un modèle d’IA avant de le lancer dans le monde.
Il est essentiel que les développeurs et les utilisateurs de la technologie d’IA restent conscients de la théorie dynamique du sens dans les réponses qu’ils reçoivent, ainsi que de la dynamique du langage utilisé dans l’entrée. Rappelez-vous, le contexte est clé. Et, en tant qu’humains, la plupart de notre contexte est compris par des moyens non dits, que ce soit par le langage corporel, les tendances sociétales – même notre ton. En tant qu’humains, nous avons le potentiel de halluciner en réponse aux questions. Mais, dans notre version actuelle de l’IA, notre compréhension humaine à humaine n’est pas si facilement contextualisée, nous devons donc être plus critiques du contexte que nous fournissons par écrit.
Suffit de dire – tous les modèles d’IA ne sont pas créés égaux. À mesure que la technologie se développe pour accomplir des tâches de plus en plus complexes, il est crucial que les entreprises qui envisagent de la mettre en œuvre identifient les outils qui amélioreront les interactions et les expériences client plutôt que de les détériorer.
La charge ne repose pas uniquement sur les fournisseurs de solutions pour s’assurer qu’ils ont tout fait pour minimiser la chance que des hallucinations se produisent. Les acheteurs potentiels ont également leur rôle à jouer. En donnant la priorité aux solutions rigoureusement formées et testées et capables d’apprendre à partir de données propriétaires (plutôt que n’importe quoi et tout sur Internet), les entreprises peuvent tirer le meilleur parti de leurs investissements dans l’IA pour mettre en place les employés et les clients pour le succès.












