Des leaders d'opinion
2026 : L'année où les coûts de l'IA obligeront chaque entreprise à repenser sa stratégie

Ces dernières années, j'ai pu constater de visu la rapidité avec laquelle le paysage des données et de l'IA évolue, notamment face aux efforts des entreprises pour moderniser des architectures complexes tout en garantissant des performances fiables à l'échelle mondiale. La pression sur les dirigeants s'accroît à mesure que les attentes concernant l'IA augmentent et que l'écart se creuse entre les objectifs des organisations et les capacités réelles de leur infrastructure. Cette tension redéfinit les priorités du secteur et prépare l'avenir. Fort de mon expertise sectorielle et de mon expérience à la tête de Teradata lors de multiples transformations, voici mes trois prédictions pour 2026.
1. La percée de la production d'IA agentique
2026 sera l'année où les entreprises franchiront enfin le cap entre les projets pilotes et le déploiement à grande échelle de l'IA agentielle. L'année 2025, quant à elle, a été marquée par le paradoxe de l'IA. 92 % des entreprises augmentent leurs investissements en IA, mais seulement 1 % atteignent une maturité.L’année 2026 fera la distinction entre les gagnants et les perdants. Le principal obstacle à la production d’IA n’a jamais été la création de modèles ou la génération d’idées ; il s’agissait de déployer l’IA à l’échelle de l’entreprise en toute confiance, avec contextualisation et efficacité économique.
L'année prochaine, les interactions entre agents se généraliseront dans au moins un secteur B2B majeur, qu'il s'agisse des achats, de la chaîne logistique ou du service client. Les organisations qui se prépareront aux exigences de calcul considérables de l'IA agentique prendront une avance telle que leurs concurrents auront beaucoup de mal à les rattraper. Contrairement aux applications traditionnelles qui effectuent quelques requêtes par minute, les systèmes d'IA agentique, capables d'interroger en permanence (24 h/24 et 7 j/7), génèrent 25 fois plus de requêtes de base de données et consomment 50 à 100 fois plus de ressources de calcul pour analyser les problèmes, recueillir le contexte et exécuter les tâches.
Il ne s'agit pas simplement de chiffres plus élevés ; ils représentent un changement fondamental dans le fonctionnement des infrastructures d'entreprise. Le défi est de taille et exige des architectures de traitement massivement parallèles – une approche informatique qui utilise de nombreux processeurs pour effectuer simultanément des calculs sur différentes parties d'un vaste ensemble de données – capables de gérer des charges de travail mixtes à grande échelle. À mesure que les entreprises déploient potentiellement des milliers de ces agents évaluant des millions de relations dans des milliers de tables pour prendre une seule décision, chaque milliseconde compte. On ne parle plus d'assistants IA isolés, mais d'écosystèmes entiers d'agents spécialisés travaillant ensemble, chacun interrogeant des données, analysant les options et se coordonnant avec les autres agents en temps réel. Les entreprises qui parviendront à gérer efficacement ce volume de données à des coûts prévisibles domineront le marché, tandis que celles prises au dépourvu par l'explosion des coûts d'infrastructure auront du mal à survivre.
D'ici fin 2026, j'attends des retours sur investissement quantifiables, se chiffrant en centaines de millions, et non de simples projections optimistes. Les premiers déploiements en production démontreront une valeur ajoutée concrète pour l'entreprise, allant au-delà des gains de productivité pour aboutir à une véritable transformation. Il ne s'agira pas de simples chatbots ou outils de synthèse de documents ; ce seront des systèmes intelligents qui modifieront en profondeur les méthodes de travail au sein des organisations.
2. La guerre des plateformes de connaissances : quand les millisecondes deviennent des millions
En 2026, les entreprises constateront que l'intelligence de leurs agents IA est directement liée à la rapidité de leur infrastructure de données. Lorsqu'un système d'agents effectue 10 000 requêtes pour répondre à une seule question client, la différence entre un temps de réponse de 100 ms et de 10 ms ne se limite pas à l'expérience utilisateur : elle se traduit par une facture d'infrastructure mensuelle de 50 000 $ contre 5 millions de dollars.
Les données du secteur confirment cette évolution. Perspectives d'avenir 2026 d'IDC Cette étude prévoit que d'ici 2028, 45 % des interactions avec les produits et services informatiques utiliseront des agents comme interface principale pour les opérations courantes. Enquête de McKinsey sur l'état de l'IA en 2025 Une étude a révélé que là où le potentiel de pénétration de l'IA est élevé, les systèmes agentiques transforment rapidement la manière dont les organisations utilisent la technologie. Les premiers déploiements en production montrent que les flux de travail agentiques génèrent 25 fois plus de requêtes de base de données que les applications traditionnelles. Une simple interaction avec le service client, qui nécessitait auparavant trois appels d'API, déclenche désormais des milliers de requêtes contextuelles : l'agent analyse les options, valide les informations et synthétise les réponses.
Les entrepôts de données cloud traditionnels, optimisés pour l'analyse par lots, ne pourront pas répondre aux exigences des plateformes multi-agents en temps réel. La disponibilité permanente de ces plateformes est fondamentalement incompatible avec les environnements de calcul dynamiques, conçus pour s'adapter aux charges de travail planifiées et se désactiver pour réduire les coûts. L'initiative NANDA du MIT Il a été constaté que 95 % des programmes pilotes d'IA n'atteignent pas leur objectif de rentabilité mesurable, non pas en raison de la qualité des modèles, mais à cause d'un « fossé d'apprentissage » : les systèmes ne parviennent pas à s'adapter assez rapidement aux flux de travail de l'entreprise. Lorsque la latence de l'infrastructure accentue ce fossé, même les agents les plus sophistiqués deviennent inefficaces. Les organisations vont se rendre compte que l'optimisation des requêtes, autrefois considérée comme un problème résolu et réservée aux administrateurs de bases de données, est devenue le principal frein au retour sur investissement de l'IA.
C’est ici que les plateformes reposant sur une architecture de traitement massivement parallèle rencontrent l’avenir de l’IA. Les systèmes conçus dès le départ pour des charges de travail mixtes (gérant simultanément les requêtes opérationnelles et analytiques sans perte de performance) feront la différence entre les entreprises performantes et celles qui restent à la traîne. Lorsque chaque milliseconde de performance de requête a un impact direct sur l’intelligence des agents, la qualité des réponses et les résultats commerciaux, les décisions relatives à l’infrastructure deviennent des impératifs stratégiques.
Nous le constatons déjà chez nos clients qui utilisent des agents d'IA en production. Ils sont stupéfaits de découvrir que leur entrepôt de données cloud « moderne » ajoute 2 à 3 secondes à chaque interaction avec l'agent, ce qui rend l'IA lente et peu réactive. Multipliez cette latence par des milliers d'interactions quotidiennes, et l'expérience utilisateur devient insupportable. D'ici fin 2026, la performance des requêtes deviendra le principal critère d'évaluation des décisions relatives à l'infrastructure d'IA, reléguant les coûts de stockage et la scalabilité au second plan.
La dynamique du pouvoir se transforme radicalement lorsque les entreprises peuvent déployer l'IA directement sur une infrastructure de données optimisée, forte de plusieurs décennies d'expérience en analyse décisionnelle. Libérées des contraintes des architectures de fournisseurs incapables de gérer les volumes de requêtes des agents, elles bénéficient de la flexibilité nécessaire pour innover à la vitesse de l'IA, offrir des expériences utilisateur réactives et éviter les problèmes de performance liés à une infrastructure inadaptée à la charge de travail.
Ce changement va bouleverser le paysage des plateformes de données. Les fournisseurs qui survivront seront ceux qui pourront prouver que leurs architectures ont été conçues pour ce contexte : un monde où des temps de réponse inférieurs à la seconde à très grande échelle ne sont plus une simple fonctionnalité, mais le fondement même de l'automatisation intelligente.
3. La renaissance hybride : la souveraineté des données devient stratégique
La tendance s'inverse et les entreprises prennent conscience qu'il ne s'agit plus seulement de choisir entre le cloud et l'infrastructure sur site, mais d'opérer efficacement sur les deux pour répondre à leurs divers besoins métiers. En 2026, la souveraineté des données ne sera plus seulement une question de conformité, mais un véritable avantage concurrentiel stratégique et, de plus en plus, une question de survie économique.
Le constat économique est indéniable : à mesure que l'IA agentielle génère des volumes de requêtes exponentiels, les coûts du cloud vont exploser. Gartner prédit que d'ici 2030Les entreprises qui n'optimisent pas leur environnement de calcul IA sous-jacent paieront plus de 50 % de plus que celles qui l'optimisent. D'ici 2029, 50 % des ressources de calcul cloud seront consacrées aux charges de travail d'IA, contre moins de 10 % aujourd'hui – soit une multiplication par cinq des charges de travail cloud liées à l'IA. Les organisations découvrent que l'hybride n'est pas une solution obsolète, mais bien la voie pragmatique de l'avenir. On observe un regain d'intérêt pour les déploiements hybrides, témoignant d'une meilleure compréhension de la manière dont les entreprises peuvent optimiser leurs coûts tout en tirant parti de façon stratégique des capacités sur site et dans le cloud.
Les chiffres sont éloquents. Lorsqu'on gère des milliers d'agents d'IA effectuant des millions de requêtes par jour, l'écart de coûts entre le cloud et l'infrastructure sur site devient considérable. Les entreprises les plus avisées modélisent déjà ces scénarios et comprennent qu'un déploiement hybride stratégique n'est pas un simple atout, mais une nécessité pour des opérations d'IA pérennes. À mesure que l'IA devient un facteur de différenciation clé, les entreprises réaliseront que leurs stratégies de données et leur expertise sectorielle sont trop précieuses pour être entièrement confiées aux fournisseurs de cloud public. Elles souhaiteront contrôler et posséder leurs données, connaître leur localisation géographique et maîtriser les coûts de l'IA à grande échelle.
Cette tendance sera particulièrement marquée à l'international et dans les secteurs réglementés comme la finance et la santé, mais la nécessité de maîtriser les coûts favorisera son adoption dans tous les secteurs. Les entreprises qui offriront une véritable flexibilité de déploiement, avec des données, une puissance de calcul, des modèles, des charges de travail, des résultats et une expérience utilisateur cohérents dans les environnements hybrides, remporteront la mise. Les organisations exigeront de pouvoir exécuter des fonctionnalités d'IA de pointe, notamment des modèles de langage et le traitement vectoriel, derrière leurs propres pare-feu, tout en conservant le même rythme d'innovation que leurs concurrents natifs du cloud, et ce, sans se ruiner.
L'avenir appartient aux plateformes qui permettent à l'IA de déployer sa vitesse et son évolutivité quel que soit l'emplacement des données (cloud public, sur site ou cloud privé), permettant ainsi aux organisations de prendre des décisions économiquement rationnelles quant au placement de leurs charges de travail, tandis que l'IA proactive remodèle les structures de coûts. Il ne s'agit pas de revenir aux anciennes méthodes, mais d'adopter une approche plus sophistiquée qui considère l'infrastructure comme un portefeuille stratégique où différentes charges de travail s'exécutent dans l'environnement le plus approprié en fonction des exigences de performance, de coût, de sécurité et de conformité.
En 2026, l'IA agentielle passera du statut de concept à celui de réalité opérationnelle, transformant en profondeur la manière dont les entreprises rivalisent, développent des logiciels et gèrent leurs infrastructures. Les entreprises qui maîtriseront le déploiement à grande échelle, conserveront la maîtrise de leurs données et de leur contexte, et concevront des architectures hybrides flexibles, acquerront des avantages quasi impossibles à égaler.












