Suivez nous sur

Quand votre IA invente des faits : le risque d'entreprise qu'aucun dirigeant ne peut ignorer

Des leaders d'opinion

Quand votre IA invente des faits : le risque d'entreprise qu'aucun dirigeant ne peut ignorer

mm

Ça sonne juste. Ça a l'air juste. C'est faux. C'est votre IA qui a des hallucinations. Le problème ne vient pas seulement des modèles d'IA génératifs actuels. hallucinerNous pensons que si nous construisons suffisamment de garde-fous, que nous les peaufinons, les améliorons et les apprivoisons d'une manière ou d'une autre, nous pourrons alors l'adopter à l'échelle de l'entreprise.

Étude Domaine Taux d'hallucinations Principales conclusions
Stanford HAI et RegLab (Jan 2024) Informations légales 69% –88% Les étudiants en LLM ont présenté des taux élevés d’hallucinations lorsqu’ils répondaient à des questions juridiques, manquant souvent de conscience de leurs erreurs et renforçant des hypothèses juridiques incorrectes.
Étude JMIR RĂ©fĂ©rences acadĂ©miques GPT-3.5 : 90.6 %, GPT-4 : 86.6 %, Bard : 100 % Les rĂ©fĂ©rences gĂ©nĂ©rĂ©es par les LLM Ă©taient souvent non pertinentes, incorrectes ou non Ă©tayĂ©es par la littĂ©rature disponible.
Étude britannique sur le contenu généré par l'IA (Février 2025) Finance Non spécifié La désinformation générée par l’IA a augmenté le risque de panique bancaire, une part importante des clients des banques envisageant de transférer leur argent après avoir visionné du faux contenu généré par l’IA.
Rapport du Forum économique mondial sur les risques mondiaux Évaluation globale des risques Non spécifié La désinformation et la mésinformation, amplifiées par l’IA, sont classées comme le principal risque mondial sur une période de deux ans.
Classement des hallucinations de Vectara Évaluation du modèle d'IA GPT-4.5-Preview : 1.2 %, Google Gemini-2.0-Pro-Exp : 0.8 %, Vectara Mockingbird-2-Echo : 0.9 % Les taux d'hallucinations ont Ă©tĂ© Ă©valuĂ©s dans diffĂ©rents LLM, rĂ©vĂ©lant des diffĂ©rences significatives en termes de performances et de prĂ©cision.
Étude Arxiv sur l'hallucination factuelle Recherche en IA Non spécifié Introduction de HaluEval 2.0 pour étudier et détecter systématiquement les hallucinations dans les LLM, en se concentrant sur les inexactitudes factuelles.

Les taux d'hallucinations varient de 0.8 % Ă  88 %

Oui, cela dĂ©pend du modèle, du domaine, du cas d'utilisation et du contexte, mais cette dispersion devrait perturber tout dĂ©cideur d'entreprise. Il ne s'agit pas d'erreurs marginales. Elles sont systĂ©miques. Comment prendre la bonne dĂ©cision en matière d'adoption de l'IA dans votre entreprise ? OĂą, comment, Ă  quelle profondeur et Ă  quelle Ă©chelle ? 

Et des exemples de consĂ©quences concrètes de ce phĂ©nomène apparaissent chaque jour dans votre fil d’actualitĂ©.  Le Conseil de stabilitĂ© financière du G20 a signalĂ© l'IA gĂ©nĂ©rative comme un vecteur de dĂ©sinformation Cela pourrait provoquer des crises boursières, de l'instabilitĂ© politique et, pire encore, des krachs Ă©clair, des fausses nouvelles et des fraudes. Dans un autre article rĂ©cent, le cabinet d'avocats Morgan & Morgan a publiĂ© une note d'urgence Ă  l'intention de tous les avocats : ne soumettez pas de documents gĂ©nĂ©rĂ©s par l'IA sans vĂ©rification. La fausse jurisprudence est passible de licenciement.

Ce n'est peut-être pas le moment idéal pour miser sur une baisse prochaine des taux d'hallucinations. Surtout dans les secteurs réglementés, comme le droit, les sciences de la vie, les marchés financiers ou d'autres, où le coût d'une erreur peut être élevé, notamment dans l'édition de publications universitaires.

L'hallucination n'est pas une erreur d'arrondi

Il ne s'agit pas d'une mauvaise réponse occasionnelle. Il s'agit risque:Réputationnel, Juridique, Opérationnel.

L'IA gĂ©nĂ©rative n'est pas un moteur de raisonnement. C'est un finisseur statistique, un perroquet stochastique. Elle complète votre requĂŞte de la manière la plus probable en fonction des donnĂ©es d'entraĂ®nement. MĂŞme le pièces au son authentique Ce ne sont que des suppositions. On appelle « hallucinations Â» les Ĺ“uvres les plus absurdes, mais le rĂ©sultat tout entier est une hallucination. Une hallucination bien ficelĂ©e. Pourtant, elle fonctionne, comme par magie, jusqu'Ă  ce que ça ne fonctionne plus.

L'IA comme infrastructure

Et pourtant, il est important de dire que l’IA sera prête à être adoptée à l’échelle de l’entreprise lorsque nous commencerons à la traiter comme telle. infrastructure, et non comme par magie. Et, si nécessaire, elle doit être transparente, explicable et traçable. Si ce n'est pas le cas, c'est tout simplement qu'elle n'est pas prête à être adoptée à l'échelle de l'entreprise pour ces cas d'usage. Si l'IA prend des décisions, elle devrait être au centre des préoccupations de votre conseil d'administration.

La loi européenne sur l'IA ouvre la voie à cet égard. Les domaines à haut risque comme la justice, la santé et les infrastructures seront réglementés comme les systèmes critiques. La documentation, les tests et l'explicabilité seront obligatoires.

Ce que font les modèles d'IA sûrs pour les entreprises

Les entreprises spĂ©cialisĂ©es dans la crĂ©ation de modèles d'IA fiables prennent la dĂ©cision consciente de concevoir une IA diffĂ©rente. Dans leurs architectures d'IA alternatives, les modèles de langage ne sont pas entraĂ®nĂ©s sur des donnĂ©es ; ils ne sont donc pas « contaminĂ©s Â» par des Ă©lĂ©ments indĂ©sirables, tels que des biais, des violations de propriĂ©tĂ© intellectuelle ou une propension Ă  deviner ou Ă  halluciner.

De tels modèles ne « complètent pas votre pensée » : ils raisonnent à partir de celle de leur utilisateur. contenuLeur base de connaissances. Leurs documents. Leurs données. Si la réponse n'est pas là, ces modèles le disent. C'est ce qui rend ces modèles d'IA explicables, traçables, déterministes et une bonne option là où les hallucinations sont inacceptables.

Un guide en 5 étapes pour la responsabilisation de l'IA

  1. Cartographier le paysage de l'IA – OĂą l'IA est-elle utilisĂ©e dans votre entreprise ? Quelles dĂ©cisions influence-t-elle ? Quelle importance accordez-vous Ă  la possibilitĂ© de retracer ces dĂ©cisions jusqu'Ă  une analyse transparente basĂ©e sur des sources fiables ?
  2. Alignez votre organisation – En fonction de l’ampleur de votre déploiement d’IA, mettez en place des rôles, des comités, des processus et des pratiques d’audit aussi rigoureux que ceux des risques financiers ou de cybersécurité.
  3. Intégrer l'IA aux risques au niveau du conseil d'administration – Si votre IA communique avec vos clients ou les régulateurs, elle a sa place dans vos rapports de risques. La gouvernance n'est pas une simple affaire.
  4. Traitez les fournisseurs comme des co-responsables – Si l'IA de votre fournisseur invente des erreurs, vous en assumez toujours les conséquences. Étendez vos principes de responsabilité en matière d'IA à ces erreurs. Exigez des documents, des droits d'audit et des accords de niveau de service pour garantir l'explicabilité et les taux d'hallucinations.
  5. Scepticisme Ă  l'Ă©gard des trains – Votre Ă©quipe doit traiter l'IA comme un analyste junior : utile, mais pas infaillible. RĂ©jouissez-vous lorsqu'une personne identifie une hallucination. La confiance se mĂ©rite.

L'avenir de l'IA dans l'entreprise Il ne s'agit pas de modèles plus grands. Ce qu'il faut, c'est plus de précision, plus de transparence, plus de confiance et plus de responsabilité.

Joy Dasgupta est PDG de Gyan et un leader chevronné dans les solutions basées sur l'IA avec plus de deux décennies d'expérience en leadership mondial dans des entreprises comme Hewlett-Packard, American Express et Genpact.

Gyan est une architecture d'IA fondamentalement nouvelle, conçue pour les entreprises peu tolérantes, voire nulles, aux hallucinations, aux risques de propriété intellectuelle ou aux modèles énergivores. Là où la confiance, la précision et la responsabilité sont primordiales, Gyan garantit que chaque information est explicable, traçable jusqu'à des sources fiables, et que la confidentialité des données est au cœur de ses préoccupations.