Suivez nous sur

PrĂ©dictions pour 2026 : De la marchandisation des LLM Ă  l’ère de la mĂ©moire agentive

Des leaders d'opinion

PrĂ©dictions pour 2026 : De la marchandisation des LLM Ă  l’ère de la mĂ©moire agentive

mm

Début 2025, j'avais prédit la marchandisation des grands modèles de langage.

Avec l'effondrement des prix des jetons et le passage des entreprises de l'expérimentation à la production, cette prédiction est rapidement devenue réalité, redéfinissant la manière dont les systèmes d'IA sont construits et gérés à l'approche de 2026.

Ce que 2025 a bien réussi

Plusieurs tendances qui semblaient incertaines l'an dernier se sont maintenant concrétisées.

Dans un premier temps, les modèles linéaires logiques (LLM) sont devenus l'infrastructure fondamentale de l'IA. La réduction des coûts et l'amélioration des pipelines d'inférence ont permis le déploiement en production de nombreuses charges de travail, notamment pour les tâches les plus simples comme l'extraction d'entités, la classification et la synthèse. Désormais, la question pour les entreprises n'est plus « quel modèle utiliser ? » mais « comment concevoir des systèmes capables de résister à l'évolution constante des modèles ? »

Deuxièmement, les agents ont démontré leur capacité à traiter d'importants volumes de documents textuels d'entreprise. Les responsables continuent de se heurter au chaos engendré par la documentation de conformité lorsqu'il s'agit d'extraire des données pour éclairer leurs décisions. Les données de communication, auparavant ignorées dans les courriels, les tickets et les historiques de chat, sont désormais activement utilisées par les agents pour fournir des analyses et des recommandations. Ce phénomène rappelle la première vague du Big Data au début des années 2010, lorsque le stockage abordable et les nouveaux outils ont permis d'exploiter des ensembles de données inexploités.

Troisièmement, la connaissance symbolique a discrètement fait son retour. Les graphes de connaissances, autrefois considérés comme coûteux et fragiles, ont connu une nouvelle vie grâce à GraphRAG et l'extraction pilotée par agents. Les graphes imparfaits se sont révélés utiles. L'itération prime désormais sur la perfection initiale. Il ne s'agit pas d'un simple changement de stratégie marketing, mais d'une véritable transformation de la manière dont les systèmes symboliques et statistiques collaborent.

Enfin, des rĂ©glage fin L'apprentissage en contexte a retrouvĂ© toute son importance. Face aux limites de l'apprentissage en contexte pour les tâches sensibles Ă  la latence et nĂ©cessitant un raisonnement complexe, les modèles spĂ©cialisĂ©s de plus petite taille sont redevenus attractifs. L'industrie a redĂ©couvert une vĂ©ritĂ© ancienne : tous les problèmes ne requièrent pas un modèle gĂ©nĂ©raliste gigantesque.

Bien que ces tendances soient devenues essentielles, le véritable tournant aura lieu en 2026.

La mémoire agentive devient fondamentale

En 2026, les agents cesseront d'être des outils sans état et commenceront à se comporter comme des systèmes dotés de mémoire.

C'est là que l'idée de mémoire agentive L'émergence de la mémoire agentique est indéniable. Bien qu'il soit tentant de la décrire comme un simple changement d'appellation des graphes de connaissances, cette approche est réductrice. La mémoire agentique représente une évolution. Elle combine des représentations symboliques structurées avec la capacité des agents à raisonner, à se mettre à jour et à agir au fil du temps.

La mémoire transforme les agents, de simples exécutants réactifs, en systèmes de prise de décision. Sans elle, les agents répètent les mêmes tâches, se trompent de contexte et ne tirent aucun enseignement de leurs actions passées. Grâce à elle, les entreprises peuvent concevoir des systèmes d'IA qui accumulent les connaissances institutionnelles au lieu de les abandonner systématiquement.

La fusion de modèles remplace le culte des modèles.

L'un des développements les moins abordés est l'essor de la fusion de modèles et de l'entraînement distribué. Au lieu d'entraîner des modèles monolithiques de bout en bout, les chercheurs décomposent de plus en plus le problème. Des modèles spécialisés plus petits sont entraînés indépendamment, puis combinés.

Cette approche a d'abord fait son apparition dans le cadre de concours de recherche et de défis expérimentaux. En 2025, elle a donné naissance à des tutoriels complets et à des pipelines prêts à l'emploi. Des exemples publics, notamment des expériences d'entraînement distribué menées par Cohere, témoignent d'une évolution plus générale.

D’ici 2026, nous verrons Ă©merger un vĂ©ritable marchĂ© pour des modèles de langage plus petits que les entreprises pourront possĂ©der, composer et adapter. Le centre de gravitĂ© passera de « qui possède le modèle le plus volumineux Â» Ă  « qui peut assembler le système le plus efficace Â».

L'IA scientifique quitte les laboratoires

L'intelligence artificielle appliquée à la science n'est plus une simple curiosité de recherche. En 2025, les ateliers de physique, de biologie et de science des matériaux organisés lors de grandes conférences ont attiré un public inattendu. De riches fondations et des donateurs privés ont commencé à financer des projets scientifiques d'envergure en IA. Des start-ups ont vu le jour, axées sur la découverte de médicaments, la conception de matériaux et la simulation.

En 2026, la création de valeur commencera à se manifester. Si l'IA accélère la découverte d'un nouvel antibiotique, d'un traitement contre le cancer ou d'un matériau novateur, les bénéfices dépasseront largement les coûts de calcul. Cela fait de l'IA scientifique l'une des applications les plus rentables du secteur.

Cependant, l'IA ne produira pas comme par magie de nouvelles lois physiques. AlphaFold a réussi car le problème était bien défini. La physique n'a toujours pas connu son moment Hilbert, une définition claire et partagée des problèmes fondamentaux à résoudre. Définir les bons problèmes reste une tâche humaine.

La preuve de la création de contenu prend de l'importance.

L'une des découvertes les plus surprenantes de l'année écoulée n'est pas venue des technologues, mais des sociologues.

Le plus grand risque de l'IA gĂ©nĂ©rative n'est pas la perte d'emplois, mais l'Ă©rosion des preuves : preuves de paternitĂ©, preuves de travail, preuves d'authenticitĂ©, preuves d'humanitĂ©.

Face à l'afflux massif de contenus générés par l'IA sur tous les supports, les sociétés exigeront de nouveaux mécanismes pour vérifier l'origine des contenus. C'est là que les concepts de cryptographie et de blockchain réapparaissent, non pas comme des actifs spéculatifs, mais comme une infrastructure d'attribution et de vérification.

L'IA pourrait bien devenir le catalyseur qui donnera enfin à ces systèmes une véritable utilité.

Les agents apprennent grâce aux outils, pas au texte.

Les assistants numériques personnels (LLM) dotés d'outils sont fondamentalement différents des chatbots. L'outil le plus important pour les agents aujourd'hui est le terminal.

Des outils d'évaluation comme Terminal Bench officialisent cette évolution. Les agents capables d'interagir avec les lignes de commande, les API et les environnements apprennent par la pratique. Les laboratoires de pointe investissent désormais des centaines de millions de dollars dans l'acquisition de données de tâches complexes pour entraîner ces agents.

Les ensembles de donnĂ©es sont privĂ©s et fragmentĂ©s, ce qui a un effet secondaire important : les modèles cesseront de fonctionner de la mĂŞme manière. Ă€ mesure que les donnĂ©es d’entraĂ®nement divergent, les modèles les plus performants dĂ©velopperont des compĂ©tences et des modes de raisonnement distincts. L’homogĂ©nĂ©itĂ© Ă©tait un artefact temporaire liĂ© au partage des donnĂ©es. La diversitĂ© fait son retour.

Ă€ mesure que les assistants de programmation comme Claude Code et OpenAI Codex s'amĂ©liorent jour après jour, nous, humains, en extrayons des connaissances sous forme de logiciels. De fait, cela commence Ă  ressembler Ă  ce que certains appellent des « distilleries de logiciels Â», oĂą de grands modèles aident Ă  concevoir des systèmes qui sont ensuite transformĂ©s en logiciels moins coĂ»teux et adaptĂ©s Ă  des tâches spĂ©cifiques. Ces logiciels sont en effet moins gourmands en ressources de calcul Ă  exĂ©cuter sur des processeurs que s'ils Ă©taient exĂ©cutĂ©s directement par des modèles de pointe. Si la gĂ©nĂ©ration de jetons devient nettement moins chère et que les assistants de programmation sont beaucoup plus sophistiquĂ©s, le logiciel lui-mĂŞme pourrait disparaĂ®tre, car l'intervention humaine pourrait s'avĂ©rer nĂ©cessaire. Cette idĂ©e paraĂ®t improbable aujourd'hui, tout comme l'idĂ©e que des milliards de transistors pourraient un jour tenir dans un tĂ©lĂ©phone portable dans les annĂ©es 1960.

Cap sur l’avenir

Si 2025 a été l'année où les masters en droit sont devenus abordables, 2026 sera l'année où l'intelligence se structurera.

Les gagnants ne seront pas ceux qui possèdent les modèles les plus volumineux, mais ceux qui conçoivent des systèmes capables de mémoriser, de raisonner, d'attribuer des informations et d'évoluer. L'IA ne repose plus tant sur les capacités brutes que sur l'architecture.

Et c'est là que se produiront les prochains progrès significatifs.

Nikolaos Vasiloglou est le vice-président de la recherche en apprentissage automatique chez IA relationnelleIl a consacré sa carrière au développement de logiciels d'apprentissage automatique et à la direction de projets de science des données dans les secteurs du commerce de détail, de la publicité en ligne et de la sécurité. Il est membre de l'ICLR/ICML/NeurIPS/UAI/MLconf/Nikolaos est membre de la communauté KGC/IEEE S&P, où il a contribué en tant qu'auteur, relecteur et organisateur d'ateliers et de la conférence principale. Il dirige les initiatives de recherche et stratégiques à l'intersection des grands modèles de langage et des graphes de connaissances pour l'IA relationnelle.