Suivez nous sur

Crise de la mémoire de l'IA : nous entrons dans un âge sombre numérique

Des leaders d'opinion

Crise de la mémoire de l'IA : nous entrons dans un âge sombre numérique

mm

Des millions d'agents d'IA intègrent les systèmes de production. Presque aucun ne possède d'expérience opérationnelle. C'est pourquoi ce choix architectural est crucial – et ce qui change lorsqu'on fait le bon choix.

À 2h06, un client passe une commande en ligne pour un ordinateur portable.

Le système de paiement consulte sa base de données : historique d’achats sans problème, montant normal, adresse de livraison déjà utilisée, appareil et localisation conformes aux commandes récentes réussies. Tout semble normal. Le système approuve la commande.

Parallèlement, un agent comportemental traite les données de navigation stockées dans le lac de données de l'entreprise. À partir de la session, il identifie un schéma : l'utilisateur a accédé directement à une page de paiement sans avoir consulté d'autres produits ni effectué de comparaison. Ce signal, bien que faible isolément, est un précurseur connu des tentatives de piratage de compte lorsqu'il est associé à des achats par ailleurs normaux.

L'agent comportemental enregistre cette interprétation comme connaissance dérivée pour une analyse ultérieure et l'entraînement du modèle.

Le caissier ne le voit jamais. Non pas parce que le signal n'a pas été calculé, ni parce qu'il a été ignoré, mais parce que cette information réside dans un système que le caissier ne consulte pas lors de l'autorisation.

Chaque agent se comporte correctement en fonction des informations dont il dispose. Chacun écrit dans le système dont il est responsable. Cependant, les informations recueillies par un agent sont invisibles pour l'autre au moment de la prise de décision.

L'ordinateur portable est expédié.

Trente-six heures plus tard, la transaction est contestée. L'enquête confirme que le compte a été piraté plus tôt dans la journée. Le pirate a maintenu la transaction dans les limites du normal, exploitant le fait que le seul indice d'alerte était une information comportementale restée hors du champ de décision du caissier.

L'échec n'était pas dû à des données manquantes, à une lenteur de traitement ou à un modèle défaillant. Il s'agissait d'un cloisonnement des agents : les connaissances étaient produites, mais non partagées.

Et cela met en lumière un problème dont presque personne ne parle. Nous avons conçu des architectures où les agents d'IA qui prennent des décisions ne peuvent pas accéder aux découvertes déjà effectuées par d'autres agents d'IA.

Le problème que l'imprimerie a résolu

Avant l'invention de l'imprimerie, le savoir était fragile. À la mort d'un érudit, une grande partie de ses connaissances disparaissait avec lui. Un mathématicien londonien pouvait passer des décennies à découvrir des principes qu'un mathématicien parisien redécouvrirait indépendamment cinquante ans plus tard. Le progrès était réel, mais local, lent et constamment remis en question.

L'imprimerie Cela n'a pas rendu les individus plus intelligents. Cela a externalisé la mémoire. Le savoir a cessé d'être limité à un seul esprit et a commencé à perdurer au-delà de la vie de son créateur. Les connaissances pouvaient être partagées, réexaminées et enrichies de génération en génération. C'est ce qui a permis au progrès de s'amplifier.

Nous risquons de répéter l'erreur commise avant l'invention de l'imprimerie avec l'IA.

La plupart des organisations déploient désormais des agents d'IA sur leurs systèmes de production.De nombreux autres acteurs expérimentent activement dans des domaines tels que le support client, le développement logiciel, la recherche et la détection des fraudes. Ces agents sont généralement déployés en tant que services indépendants, alignés sur les technologies modernes. architectures de microservicesChacune de ces entités possède ses propres données et son propre périmètre opérationnel. Même au sein d'une même organisation, les agents tirent des enseignements de leur propre expérience de production, mais partagent rarement les connaissances qu'ils produisent avec d'autres agents prenant des décisions similaires.

De ce fait, la connaissance opérationnelle demeure fragmentée. Les décisions locales peuvent s'améliorer, mais l'expérience ne se diffuse pas à l'échelle du système. Chaque avancée qui reste cantonnée à un seul acteur est une avancée qui ne peut se propager.

Cette fois, le facteur limitant n'est ni l'intelligence ni la vitesse, mais la mémoire. Sans moyen pour les systèmes d'IA d'externaliser et de partager leurs découvertes, les progrès sont plus souvent remis à zéro qu'avancés.

À quoi ressemble réellement la mémoire partagée ?

Des fenêtres de contexte plus larges peuvent enrichir le raisonnement individuel, mais elles ne créent pas de compréhension partagée. expérience persistante entre les agents.

La mémoire partagée modifie les résultats non pas en améliorant les modèles, mais en changeant ce que les agents peuvent voir au moment de la décision.

Dans un système cloisonné, chaque agent raisonne correctement dans son propre périmètre. L'agent de caisse évalue le risque transactionnel. L'agent comportemental analyse les parcours de navigation. Chacun consigne ses conclusions dans le système dont il est responsable, et ces conclusions restent invisibles aux autres agents opérant en parallèle. Les décisions sont localement correctes, mais globalement incomplètes.

Avec une couche de mémoire partagée, cette frontière disparaît.

Lorsqu'un agent comportemental traite une session, il en extrait un signal faible mais significatif : un schéma de navigation associé aux premières tentatives de prise de contrôle de compte. Au lieu de stocker cette information uniquement pour une analyse hors ligne, il l'enregistre dans une mémoire partagée, liée à la session active.

Quelques instants plus tard, lorsque le caissier vérifie l'achat, il consulte la même mémoire. La transaction semble toujours normale. Mais il dispose désormais d'un contexte supplémentaire : un avertissement comportemental qui serait autrement absent. Aucun de ces signaux n'est décisif à lui seul. Ensemble, ils déclenchent une vérification plus approfondie.

Rien n'a changé concernant les agents eux-mêmes. Aucun modèle n'est réentraîné. Aucun contrôleur centralisé n'intervient. La différence réside dans la visibilité : une information produite par un agent devient accessible à un autre tant qu'elle est encore pertinente.

Surtout, cette observation se maintient. Lorsque le résultat est connu ultérieurement – ​​fraude ou légitimité –, le lien entre le signal et le résultat est enregistré. Au fil du temps, le système accumule un historique empirique des indicateurs faibles qui tendent à avoir une incidence, et dans quelles conditions. Les décisions futures s'appuient sur une expérience qui dépasse le cadre d'une simple interaction ou d'un acteur isolé.

La mémoire partagée n'est ni un entrepôt de données ni une base de données opérationnelle. Il s'agit d'un substrat à faible latence pour le contexte dérivé : signaux, interprétations et associations qui survivent à l'interaction qui les a produits et restent interrogeables par d'autres agents prenant des décisions connexes.

C’est ainsi que l’expérience s’accumule – non pas au sein d’un seul modèle, mais à travers le système dans son ensemble.

Le compromis architectural derrière les silos d'agents

Les silos d'agents ne sont pas une erreur de mise en œuvre. Ils sont la conséquence prévisible d'architectures d'entreprise conçues pour un type de consommateur différent.

Depuis des décennies, les systèmes de production séparent les charges de travail par fonction. Les systèmes opérationnels sont optimisés pour des transactions cohérentes à faible latence, tandis que les systèmes analytiques sont optimisés pour l'agrégation à grande échelle et la découverte de modèles historiques (OLTP contre OLAPCette séparation reflétait la manière dont les connaissances étaient utilisées : les résultats analytiques étaient produits pour les humains, et non pour les machines, et devaient donc arriver de manière asynchrone et en dehors du processus critique de prise de décision.

Les agents d'IA héritent de cette division architecturale, mais ils ne s'y adaptent pas.

La conséquence n'est pas seulement un retard dans la prise de décision, mais aussi des angles morts structurels. Les informations produites par les systèmes analytiques sont, par conception, découvertes après que les décisions en temps réel ont déjà été prises. Des signaux susceptibles d'influencer les résultats existent, mais ne peuvent être mis en évidence au moment de la décision car ils résident dans des systèmes qui ne sont pas conçus pour être interrogés en continu par des décideurs autonomes.

L'architecture n'est pas défaillante. Elle est simplement inadaptée aux exigences des systèmes autonomes.

La discipline manquante : l’ingénierie du contexte

La mémoire partagée soulève un problème que la plupart des équipes ne sont pas préparées à résoudre : décider quelle expérience doit être conservée.

Les systèmes d'IA génèrent une quantité considérable de données brutes : transactions, clics, messages, actions, résultats. Les conserver intégralement n'est ni pratique ni utile. Sans sélection délibérée, la mémoire partagée devient du bruit. Le défi n'est pas de collecter toujours plus de données, mais de structurer l'expérience dans un contexte exploitable par d'autres agents.

C'est le rôle de ingénierie contextuelle.

L'ingénierie du contexte est la discipline qui consiste à déterminer quelles observations deviennent des signaux durables, comment ces signaux sont représentés et à quel moment ils doivent être communiqués aux autres agents. Elle se situe entre les événements bruts et le raisonnement des agents, transformant une activité transitoire en une compréhension partagée et pertinente pour la prise de décision.

Concrètement, cela signifie mettre en avant les tendances, les indicateurs et les associations conditionnelles, tout en laissant s'estomper la plupart des observations brutes. Un signal faible ou un cas limite peut paraître insignifiant pris isolément, mais prend toute sa valeur lorsqu'il est accumulé et révélé au moment opportun.

L'ingénierie du contexte détermine si la mémoire partagée se contente de stocker l'expérience ou si elle permet de l'amplifier.

Que se passera-t-il si nous réussissons ?

Il ne s'agit pas d'un problème futur. C'est une décision architecturale prise aujourd'hui — souvent implicitement — par les équipes d'infrastructure.

Par défaut, l'isolement est la voie privilégiée. Les agents d'IA agissent indépendamment, se basant uniquement sur leur propre expérience. Chacun prend des décisions rapides et pertinentes localement, mais leur intelligence finit par plafonner. Les mêmes cas limites se reproduisent, des signaux faibles sont redécouverts et les échecs se répètent à un rythme et un volume accrus.

L'alternative est une couche de mémoire partagée.

Lorsque le contexte acquis persiste et est visible au moment de la décision, l'expérience cesse de s'évaporer. Les connaissances acquises restent disponibles. Les signaux faibles prennent du sens par accumulation. Les décisions s'améliorent non pas parce que les modèles changent, mais parce que les acteurs ne raisonnent plus isolément.

Cela ne nécessite ni modèles plus volumineux, ni réentraînement en temps réel, ni contrôle centralisé. Il s'agit plutôt de considérer la mémoire comme une couche architecturale de premier ordre, conçue pour un accès à faible latence, la persistance et une visibilité partagée.

Les défauts architecturaux se durcissent rapidement. Les systèmes conçus sans mémoire partagée deviennent de plus en plus difficiles à adapter à mesure que les agents prolifèrent. Le choix est simple : concevoir des systèmes qui accumulent de l’expérience ou des systèmes qui se réinitialisent sans cesse.

Xiaowei Jiang est PDG et architecte en chef chez Tacnode, où il se concentre sur la mise en place d'une infrastructure contextuelle pour les agents d'IA.