Leaders d’opinion
Pourquoi les agents IA dans l’entreprise rencontrent un problème de connaissance, et non de technologie

L’an dernier, S&P Global a rapporté que le pourcentage d’entreprises abandonnant la plupart de leurs initiatives d’IA a plus que doublé, passant de 17 % à 42 %. Auparavant, Gartner a publié une prévision sur les projets d’IA agentic : 40 % d’entre eux seront annulés d’ici la fin de 2027.
Selon McKinsey & Company, près de la moitié de toutes les entreprises expérimentent avec des agents IA. Mais combien d’entre elles sont allées au-delà de la phase de test et sont réellement opérationnelles ? Environ une sur dix.
L’industrie n’a pas manqué d’explications : les hallucinations de modèle, le manque de gouvernance, les coûts élevés des GPU et la pénurie de spécialistes. Tous ces défis sont réels. Mais après trois ans de travail avec des systèmes de gestion des connaissances et des agents IA, je constate de plus en plus souvent un autre schéma : les entreprises transmettent des données incomplètes à leurs agents.
En tant que docteur en sciences pédagogiques, je considère cela comme un problème de transfert de connaissances. Si une personne ne peut pas expliquer comment elle prend des décisions, sa logique ne peut pas être transmise à un nouvel employé, et encore moins à un agent IA. Essayons de comprendre pourquoi cela se produit et ce que l’on peut faire pour y remédier.
Where knowledge about how a company actually operates resides
Demandez à une grande entreprise où se trouvent les connaissances de ses employés, et vous obtiendrez une longue liste : Confluence, SharePoint, plateformes LMS, bots FAQ, archives Slack. Il peut sembler que c’est exactement la pile qu’un système RAG peut utiliser pour récupérer tout ce dont il a besoin. Mais un élément crucial manque — les connaissances qui vivent dans la tête des gens. Des connaissances que personne n’a jamais écrites.
Pourquoi est-ce un problème ?
Pour qu’un agent IA prenne en charge une partie d’un flux de travail — comprendre le contexte, choisir une action et mener une tâche à terme —, il a besoin non seulement d’accéder à une base de connaissances, mais également de la logique de prise de décision utilisée par un spécialiste expérimenté.
Imaginez un nouvel agent de support qui reçoit une demande : un client prétend avoir payé pour un service, mais l’accès n’a pas été activé. Le script comprend un ensemble standard d’étapes qui se termine par la demande au client d’attendre. Cependant, l’agent remarque que la situation est inhabituelle : le client a déjà contacté le support à deux reprises, et il y a plusieurs cas similaires dans le système au cours de la dernière heure. Il contacte un collègue plus expérimenté, qui explique qu’il a déjà vu cela et que le problème est probablement une défaillance à l’intersection de la passerelle de paiement, de la banque et du système d’activation interne — donc le cas doit être escaladé à un autre département.
Pour un agent IA, cette logique est invisible. Il peut avoir accès au script, à l’historique des tickets et au statut de paiement si ces sources de données sont connectées, mais il ne sait pas quels signaux un opérateur expérimenté considère comme décisifs. Ce n’est pas que les experts cachent intentionnellement ces connaissances. Ils ne peuvent simplement pas les formaliser ou les décomposer en étapes : quels options ont été écartées, pourquoi une action particulière a été choisie et à quel moment il est devenu clair que le scénario standard ne s’appliquait pas. Les scientifiques cognitifs font référence à ce phénomène comme une connaissance tacite — une connaissance implicite dont même son détenteur peut ne pas être pleinement conscient.
C’est pourquoi le goulet d’étranglement ne se produit pas au niveau de l’accès aux documents, mais à l’étape de conversion de l’expérience d’un expert en un format adapté à la formation d’un agent IA.
What to do about it
Pour que l’agent IA fonctionne efficacement, il ne suffit pas de simplement connecter un LLM à une base de connaissances d’entreprise, car les décisions réussies reposent souvent sur des connaissances tacites. Une couche de connaissances doit d’abord être créée, y compris des critères de prise de décision structurés.
Dans la gestion des connaissances, ce processus est appelé externalisation — la conversion de connaissances tacites en connaissances explicites. En d’autres termes, une entreprise doit comprendre non seulement ce qu’un expert fait, mais également comment il pense. Cela est généralement réalisé au moyen d’une série d’entretiens approfondis avec un expert de premier plan. À leurs côtés devrait se trouver quelqu’un capable de poser les bonnes questions : un méthodologue, un ingénieur en connaissances ou un spécialiste en conception pédagogique. Leur tâche n’est pas d’écrire un « guide basé sur ce que dit l’expert », mais de reconstruire les critères de choix entre les options, de décomposer les cas limites et de mettre en surface les erreurs typiques que l’expert gère déjà automatiquement.
À ce stade, l’IA peut aider de manière significative : la transcription d’entretiens, le regroupement de cas similaires, la conversion des explications d’experts en scénarios de projet et la génération de situations pour la validation. Cependant, la structure finale doit encore être examinée et approuvée par l’expert.
Le résultat devrait être un corpus de connaissances opérationnel. Il peut être utilisé dans deux directions en même temps — pour former de nouveaux employés et pour configurer un agent IA. Les deux scénarios reposent sur la même base : l’expérience structurée de spécialistes de premier plan.
L’alternative consiste à continuer à s’appuyer sur l’hypothèse que RAG sur Confluence reconstruira d’une manière ou d’une autre la logique qui n’a jamais été documentée. Dans la pratique, cela fonctionne rarement : le système peut récupérer un document pertinent, mais il n’apprendra pas à prendre des décisions dans des situations où l’action correcte dépend du contexte et de l’expérience.
How to check that an agent is ready to work
Vous avez transformé les connaissances d’experts en scénarios et configuré l’agent. Mais il y a un écart entre les réponses plausibles de l’agent et ses performances opérationnelles réelles — et cet écart ne devient visible qu’au cours de la validation. À ce stade, il est important de déterminer si vous avez réellement capturé toutes les connaissances nécessaires.
Une approche pratique est le test basé sur des scénarios. Vous donnez à l’agent des cas réels du travail quotidien d’un expert : un client conteste une facture, un e-mail inhabituel arrive ou une demande apparaît qui ne correspond pas au script de base. Les résultats ne doivent pas être évalués par un autre LLM, mais par le même expert qui a aidé à construire le corpus de connaissances. Si l’agent prend un chemin différent de celui de l’expert expérimenté, cela ne signifie pas toujours que le modèle est faible. Plus souvent, cela indique qu’une règle critique, une exception ou un exemple est manquant. Dans ce cas, le processus revient au début : le méthodologue clarifie la logique avec l’expert, le corpus de connaissances est mis à jour, les instructions sont affinées et le test est répété.
Ce cycle n’est pas une étape facultative, mais une étape qui définit la différence entre un agent qui « démontre son potentiel » et un agent qui effectue réellement du travail. C’est une partie lente et peu impressionnante du processus : elle ne produit pas de démonstration spectaculaire et nécessite la participation d’experts. Mais ceux qui passent systématiquement par cette étape se retrouvent avec des agents qui réduisent réellement la charge de travail routinière des spécialistes. Ceux qui l’ignorent se retrouvent souvent, dans les six mois, dans les statistiques de Gartner, qui prévoit que 40 % des projets seront annulés.
Les projets d’IA agentic ne échouent pas à cause de la technologie — les modèles modernes sont déjà capables d’effectuer des tâches complexes. Ils échouent parce que les entreprises « alimentent » l’IA avec des connaissances incomplètes. En 2024-2025, cela pouvait encore être expliqué par le stade expérimental. En 2026, cette erreur coûte déjà cher.












