Connect with us

Leaders d’opinion

Le Jugement de l’IA : Pourquoi l’Infrastructure Compte le Plus

mm
A professional technician in a modern data center inspecting a server rack with a tablet, showing a contrast between older server cabinets and new, high-density AI infrastructure.

L’IA est la technologie la plus conséquente de notre époque, et nous approchons d’un point d’inflexion majeur qui redessinera le paysage entrepreneurial.

L’adoption est en plein essor, avec 78% des entreprises déployant l’IA en 2025 et des projections de marché de 1,81 billion de dollars d’ici 2030. Pourtant, derrière cette croissance se cache une vérité plus dure : de nombreuses entreprises peinent à traduire l’IA en résultats réels, évolutifs et tangibles. Il devient clair que beaucoup adoptent l’IA sans les changements opérationnels nécessaires pour la faire fonctionner à grande échelle et pour sa pleine valeur.

Dans le même temps, l’infrastructure sous-jacente à l’IA ne suit pas le rythme de la croissance nécessaire. Les organisations et les modèles sont toujours contraints par la disponibilité de l’unité de traitement graphique (GPU), tandis que la capacité des centres de données disponibles est à son plus bas niveau historique dans le monde. La nouvelle capacité d’IA est contrainte par la disponibilité de l’énergie, les délais de construction et les pénuries de main-d’œuvre.

C’est le jugement de l’IA – une division entre ceux qui construisent et adoptent l’IA au rythme nécessaire et ceux qui sont contraints par des modèles hérités conservateurs. D’ici 2035, il est possible que cet écart puisse faire disparaître la moitié des entreprises d’aujourd’hui. La course est lancée : s’adapter ou disparaître.

Tenir les promesses de l’IA

Après des années d’annonces à sensation, de multi-gigawatts, les organisations devront enfin affronter une vérité de marché cette année. Qui livre vraiment, et qui ne compte que sur les titres et les communiqués de presse pour être dans la conversation.

La différence entre le récit et l’exécution deviendra plus claire, surtout à mesure que le retour sur investissement (ROI) de l’IA devient un véritable sujet de réflexion dans les salles de réunion. Les gagnants seront les organisations capables de rassembler l’ensemble de la pile, c’est-à-dire l’approvisionnement en GPU, l’énergie, le capital et une chaîne d’approvisionnement résiliente, et de le prouver dans les opérations et les revenus, et non seulement dans le marketing. Ceux qui livrent accéléreront rapidement et émergeront comme des leaders crédibles à long terme. Ceux qui sont ancrés dans des annonces créatives resteront en arrière. Et l’écart se creusera entre les deux.

Les facteurs limitants

Les règles de l’informatique ont fondamentalement changé. Depuis 2019, la puissance de calcul derrière les modèles d’IA a doublé environ tous les 10 mois. L’avènement de l’IA de génération a accéléré la croissance, car les cycles de vie du matériel se sont compressés et que la conception extrême de NVIDIA a fixé un rythme qui ne fera que s’accélérer. Pourtant, la plupart des centres de données restent conçus pour les charges de travail héritées, et non pour la densité de puissance, les exigences de refroidissement et les modèles de trafic de l’informatique graphique moderne.

Les approches traditionnelles ne suivront pas le rythme du changement impulsé par l’IA. Essayer de faire fonctionner les charges de travail d’IA dans des environnements hérités, c’est comme brancher un moteur de Formule 1 à amélioration rapide dans une voiture de famille ; le châssis n’est simplement pas conçu pour gérer les performances et le changement. Et dès qu’un centre de données traditionnellement construit est mis en ligne, le matériel a déjà évolué au-delà de ses paramètres de conception.

À travers l’industrie, avec des milliards investis dans les infrastructures traditionnelles, cela crée une réalité inconfortable. Soit absorber le coût de la reconstruction, espérer que les anciens circuits restent précieux, ou rester constamment en arrière de ceux qui ont conçu pour le changement de l’IA dès le départ. Il est important de noter que la rénovation est difficile. Le progrès nécessite une infrastructure conçue à dessein, y compris un refroidissement liquide direct vers le circuit, un réseau à haute bande passante et des systèmes d’alimentation reconçus.

Construire pour le changement constant

La solution à ce problème nécessite une approche entièrement nouvelle de l’infrastructure, qui gagne déjà du terrain. L’industrie se déplace vers des unités flexibles et standardisées qui peuvent être déployées, mises à niveau et remplacées par sections à mesure que les exigences évoluent. Plutôt que de construire des installations fixes optimisées pour un moment donné, les opérateurs déployant de plus en plus de capacité par phases, en ajoutant des segments à plus haute densité à mesure que les architectures de circuits et les exigences de puissance changent.

Cette approche plus flexible peut désormais livrer une capacité optimisée pour les GPU en quelques mois plutôt qu’en années. La fabrication hors site et les composants standardisés permettent de construire et de tester des systèmes dans des environnements contrôlés, accélérant ainsi le déploiement et réduisant la complexité et les besoins en main-d’œuvre qualifiée sur site. Il est crucial que les mises à niveau puissent être effectuées pendant que le reste du site reste opérationnel, et que les sections déclassées puissent être rénovées et redéployées, prolongeant ainsi la durée de vie tout en réduisant les déchets et en maximisant les revenus.

L’adaptabilité est vitale dans un environnement où les exigences de performances évoluent plus rapidement que les cycles de vie des centres de données traditionnels. La flexibilité est maintenant l’exigence déterminante par rapport à la rigidité traditionnelle à laquelle nous sommes habitués dans les constructions héritées.

Le jugement est déjà là

Le jugement de l’IA n’est plus un scénario futur ; il se déroule en temps réel. La séparation entre les centres de données conçus pour le changement constant et ceux contraints par des hypothèses héritées est déjà visible, et elle s’accélérera à partir de maintenant. Il ne s’agit pas simplement d’un cycle technologique ; c’est un réajustement structurel de la façon dont l’infrastructure est conçue, financée et livrée. Les organisations qui embrassent l’adaptabilité, alignent la pile complète et exécutent à un rythme rapide définiront la prochaine décennie. Le reste ne tombera pas seulement en arrière. Ils deviendront irrélevants.

Harqs Singh, Directeur général des technologies et co-fondateur d'InfraPartners, dirige le développement de l'entreprise de centres de données IA construits à l'aide d'une fabrication hors site avancée. Auparavant, le directeur des opérations de la technologie et des données et de l'IA chez BlackRock, Harqs possède une expertise approfondie en infrastructure numérique, en IA et en durabilité sur les plateformes mondiales. Son expérience dans divers secteurs enrichit son approche et le pousse à promouvoir des modèles d'entreprise innovants et une transformation de l'industrie.

Harqs est reconnu pour avoir impulsé l'innovation dans le secteur et a joué un rôle actif dans l'élaboration des meilleures pratiques de l'industrie et des normes de construction comme le modèle de maturité des centres de données.