Connect with us

Leaders d’opinion

Le problème d’un trillion de dollars de l’IA

mm

Alors que nous entrons dans 2025, le secteur de l’intelligence artificielle se trouve à un point d’inflexion crucial. Bien que l’industrie continue d’attirer des niveaux d’investissement et d’attention sans précédent – en particulier dans le paysage de l’IA générative – plusieurs dynamiques de marché sous-jacentes suggèrent que nous nous dirigeons vers un grand changement dans le paysage de l’IA dans l’année à venir.

En tirant parti de mon expérience en tant que dirigeant d’une startup d’IA et en observant l’évolution rapide de l’industrie, je crois que cette année apportera de nombreux changements fondamentaux : des grands modèles de concepts (LCM) qui devraient émerger comme des concurrents sérieux aux grands modèles de langage (LLM), la montée en puissance du matériel d’IA spécialisé, jusqu’aux grandes entreprises technologiques qui commencent à construire de grandes infrastructures d’IA qui leur permettront enfin de surpasser les startups comme OpenAI et Anthropic – et, qui sait, peut-être même de sécuriser leur monopole d’IA après tout.

Le défi unique des entreprises d’IA : ni logiciel ni matériel

Le problème fondamental réside dans la façon dont les entreprises d’IA opèrent dans un terrain intermédiaire inédit entre les entreprises de logiciels traditionnelles et les entreprises de matériel. Contrairement aux entreprises de logiciels pures qui investissent principalement dans le capital humain avec des dépenses d’exploitation relativement faibles, ou aux entreprises de matériel qui effectuent des investissements de capital à long terme avec des voies claires vers les rendements, les entreprises d’IA sont confrontées à une combinaison unique de défis qui rendent leurs modèles de financement actuels précaires.

Ces entreprises nécessitent des dépenses de capital importantes pour les grappes de GPU et les infrastructures, dépensant 100 à 200 millions de dollars par an en ressources de calcul seules. Pourtant, contrairement aux entreprises de matériel, elles ne peuvent pas amortir ces investissements sur des périodes prolongées. Au lieu de cela, elles opèrent sur des cycles compressés de deux ans entre les rounds de financement, chaque fois qu’elles doivent démontrer une croissance exponentielle et des performances de pointe pour justifier leur prochaine majoration de valorisation.

Le problème de différenciation des LLM

S’ajoute à ce défi structurel une tendance inquiétante : la convergence rapide des capacités des grands modèles de langage (LLM). Les startups, comme l’unicorn Mistral AI et d’autres, ont démontré que les modèles open-source peuvent atteindre des performances comparables à celles de leurs homologues à code fermé, mais la différenciation technique qui justifiait précédemment des valorisations exceptionnellement élevées devient de plus en plus difficile à maintenir.

En d’autres termes, même si chaque nouveau LLM se vante de performances impressionnantes basées sur les benchmarks standard, un changement réellement significatif dans l’architecture sous-jacente du modèle n’a pas lieu.

Les limites actuelles dans ce domaine proviennent de trois domaines critiques : la disponibilité des données, car nous manquons de matériel de formation de haute qualité (comme le confirme récemment Elon Musk) ; les méthodes de curation, car elles adoptent toutes des approches de rétroaction humaine similaires aux pionniers d’OpenAI ; et l’architecture computationnelle, car elles s’appuient sur le même pool limité de matériel GPU spécialisé.

Ce qui émerge, c’est un modèle dans lequel les gains proviennent de plus en plus de l’efficacité plutôt que de l’échelle. Les entreprises se concentrent sur la compression de plus de connaissances en moins de jetons et le développement de meilleurs artefacts d’ingénierie, comme des systèmes de récupération comme les graphes RAG (retrieval-augmented generation). Essentiellement, nous approchons d’un plateau naturel où jeter plus de ressources sur le problème donne des rendements décroissants.

En raison du rythme sans précédent de l’innovation au cours des deux dernières années, cette convergence des capacités des LLM se produit plus rapidement que quiconque ne l’avait anticipé, créant une course contre la montre pour les entreprises qui ont levé des fonds.

Sur la base des dernières tendances de la recherche, la prochaine frontière pour résoudre ce problème est l’émergence de grands modèles de concepts (LCM) comme une nouvelle architecture révolutionnaire qui concurrence les LLM dans leur domaine principal, qui est la compréhension du langage naturel (NLP).

Sur le plan technique, les LCM posséderont plusieurs avantages, notamment le potentiel de meilleures performances avec moins d’itérations et la capacité d’obtenir des résultats similaires avec des équipes plus petites. Je crois que ces LCM de nouvelle génération seront développés et commercialisés par des équipes dérivées, les fameux « ex-grands acteurs technologiques » qui fondent de nouvelles startups pour diriger cette révolution.

Déséquilibre du calendrier de monétisation

La compression des cycles d’innovation a créé un autre problème critique : le déséquilibre entre le temps de mise sur le marché et la monétisation durable. Alors que nous voyons une vitesse sans précédent dans la verticalisation des applications d’IA – avec des agents d’IA vocale, par exemple, passant du concept à des produits générant des revenus en quelques mois – cette commercialisation rapide masque un problème plus profond.

Considérez ceci : une startup d’IA valorisée à 20 milliards de dollars aujourd’hui devra probablement générer environ 1 milliard de dollars de chiffre d’affaires annuel dans 4-5 ans pour justifier une introduction en bourse à un multiple raisonnable. Cela nécessite non seulement une excellence technologique mais également une transformation dramatique de l’ensemble du modèle d’entreprise, de la R&D à la vente, tout en maintenant le rythme de l’innovation et en gérant des coûts d’infrastructure énormes.

Dans ce sens, les nouvelles startups axées sur les LCM qui émergeront en 2025 seront dans de meilleures positions pour lever des fonds, avec des valorisations initiales plus basses les rendant plus attractives pour les investisseurs.

Pénurie de matériel et alternatives émergentes

Examinons de plus près spécifiquement l’infrastructure. Aujourd’hui, chaque nouvelle grappe de GPU est achetée même avant sa construction par les grands acteurs, forçant les plus petits acteurs à s’engager dans des contrats à long terme avec des fournisseurs de cloud ou à risquer d’être exclus du marché.

Mais voici ce qui est vraiment intéressant : alors que tout le monde se bat pour les GPU, il y a eu un déplacement fascinant dans le paysage matériel qui est encore largement négligé. L’architecture GPU actuelle, appelée GPGPU (General Purpose GPU), est incroyablement inefficace pour ce que la plupart des entreprises ont réellement besoin en production. C’est comme utiliser un supercalculateur pour exécuter une application de calculatrice.

C’est pourquoi je crois que le matériel d’IA spécialisé sera le prochain grand changement dans notre industrie. Des entreprises comme Groq et Cerebras construisent un matériel d’inférence spécifique qui est 4-5 fois moins cher à exploiter que les GPU traditionnels. Oui, il y a un coût d’ingénierie plus élevé à l’avance pour optimiser vos modèles pour ces plateformes, mais pour les entreprises qui exécutent de grandes charges de travail d’inférence, les gains d’efficacité sont clairs.

Densité des données et l’émergence de modèles plus petits et plus intelligents

Passer à la prochaine frontière de l’innovation dans l’IA nécessitera probablement non seulement une puissance de calcul plus grande – en particulier pour les grands modèles comme les LCM – mais également des ensembles de données plus riches et plus complets.

Intéressant, les modèles plus petits et plus efficaces commencent à défier les plus grands en exploitant la densité avec laquelle ils sont formés sur les données disponibles. Par exemple, des modèles comme Microsoft’s FeeFree ou Google’s Gema2B, fonctionnent avec beaucoup moins de paramètres – souvent autour de 2 à 3 milliards – et atteignent des niveaux de performance comparables à ceux de modèles beaucoup plus grands avec 8 milliards de paramètres.

Ces modèles plus petits sont de plus en plus compétitifs en raison de leur haute densité de données, les rendant robustes malgré leur taille. Ce déplacement vers des modèles compacts mais puissants s’aligne sur les avantages stratégiques que des entreprises comme Microsoft et Google détiennent : l’accès à des ensembles de données massifs et diversifiés via des plateformes telles que Bing et Google Search.

Cette dynamique révèle deux « guerres » critiques en cours dans le développement de l’IA : l’une sur la puissance de calcul et l’autre sur les données. Alors que les ressources de calcul sont essentielles pour repousser les limites, la densité des données devient également – sinon plus – critique. Les entreprises ayant accès à des ensembles de données vastes sont uniques pour former des modèles plus petits avec une efficacité et une robustesse sans précédent, consolidant ainsi leur domination dans le paysage de l’IA en évolution.

Qui gagnera la guerre de l’IA ?

Dans ce contexte, tout le monde se demande qui dans le paysage actuel de l’IA est le mieux positionné pour sortir vainqueur. Voici quelques réflexions.

Les grandes entreprises technologiques ont préacheté des grappes de GPU entières avant même leur construction, créant un environnement de pénurie pour les plus petits acteurs. L’ordre de 100 000 GPU d’Oracle et des mouvements similaires de Meta et Microsoft illustrent cette tendance.

Ayant investi des centaines de milliards dans les initiatives d’IA, ces entreprises nécessitent des milliers d’ingénieurs et de chercheurs d’IA spécialisés. Cela crée une demande sans précédent de talents qui ne peut être satisfaite que par des acquisitions stratégiques – probablement aboutissant à l’absorption de nombreuses startups dans les mois à venir.

Alors que 2025 sera consacré à la R&D à grande échelle et aux constructions d’infrastructures pour ces acteurs, d’ici 2026, ils seront en position de frapper comme jamais auparavant en raison de ressources inégalées.

Ceci ne signifie pas que les petites entreprises d’IA sont condamnées – loin de là. Le secteur continuera d’innover et de créer de la valeur. Certaines innovations clés dans le secteur, comme les LCM, seront probablement menées par de plus petits acteurs émergents dans l’année à venir, aux côtés de Meta, Google/Alphabet et OpenAI avec Anthropic, qui travaillent tous sur des projets passionnants en ce moment.

Cependant, nous sommes susceptibles de voir une restructuration fondamentale de la façon dont les entreprises d’IA sont financées et valorisées. À mesure que le capital-risque devient plus discriminant, les entreprises devront démontrer des voies claires vers une économie durable – un défi particulier pour les entreprises open-source qui concurrencent des alternatives propriétaires bien dotées.

Pour les entreprises d’IA open-source en particulier, la voie à suivre peut nécessiter de se concentrer sur des applications verticales spécifiques où leurs capacités de transparence et de personnalisation offrent des avantages clairs par rapport aux solutions propriétaires.

Jean-Louis Quéguiner est le fondateur et le PDG de Gladia. Il a précédemment occupé le poste de vice-président du groupe Data, IA et calcul quantique chez OVHcloud, l'un des principaux fournisseurs de cloud en Europe. Il détient un diplôme de master en intelligence artificielle symbolique de l'Université du Québec au Canada et d'Arts et Métiers ParisTech à Paris. Au cours de sa carrière, il a occupé des postes importants dans diverses industries, notamment l'analyse de données financières, les applications d'apprentissage automatique pour la publicité numérique en temps réel et le développement d'API de reconnaissance vocale.