Suivez nous sur

Le problĂšme de l'intelligence artificielle, un problĂšme Ă  mille milliards de dollars

Des leaders d'opinion

Le problĂšme de l'intelligence artificielle, un problĂšme Ă  mille milliards de dollars

mm

À l'aube de 2025, le secteur de l'intelligence artificielle se trouve Ă  un tournant crucial. Alors que le secteur continue d'attirer des investissements et une attention sans prĂ©cĂ©dent, notamment dans le domaine de l'IA gĂ©nĂ©rative, plusieurs dynamiques de marchĂ© sous-jacentes laissent prĂ©sager une profonde mutation du paysage de l'IA au cours de l'annĂ©e Ă  venir.

Fort de mon expĂ©rience Ă  la tĂȘte d'une startup d'IA et de l'observation de l'Ă©volution rapide du secteur, je pense que cette annĂ©e apportera de nombreux changements fondamentaux : des grands modĂšles conceptuels (LCM) qui devraient Ă©merger comme des concurrents sĂ©rieux aux grands modĂšles de langage (LLM), l'essor du matĂ©riel d'IA spĂ©cialisĂ©, jusqu'aux grandes entreprises technologiques qui commencent Ă  dĂ©velopper des infrastructures d'IA majeures qui les mettront enfin en position de surpasser des startups comme OpenAI et Anthropic - et, qui sait, peut-ĂȘtre mĂȘme de sĂ©curiser leur monopole de l'IA aprĂšs tout.

Le défi unique des entreprises d'IA : ni logiciel ni matériel

Le problĂšme fondamental rĂ©side dans la maniĂšre dont les entreprises d’IA Ă©voluent dans un terrain d’entente inĂ©dit entre les activitĂ©s traditionnelles de logiciels et de matĂ©riel informatique. Contrairement aux entreprises de logiciels purs qui investissent principalement dans le capital humain avec des dĂ©penses d’exploitation relativement faibles, ou aux entreprises de matĂ©riel informatique qui font des investissements en capital Ă  long terme avec des perspectives de rendement claires, les entreprises d’IA sont confrontĂ©es Ă  une combinaison unique de dĂ©fis qui rendent leurs modĂšles de financement actuels prĂ©caires.

Ces entreprises nécessitent des investissements initiaux considérables pour leurs clusters et infrastructures GPU, dépensant entre 100 et 200 millions de dollars par an rien qu'en ressources informatiques. Pourtant, contrairement aux fabricants de matériel informatique, elles ne peuvent amortir ces investissements sur de longues périodes. Elles fonctionnent plutÎt selon des cycles comprimés de deux ans entre chaque levée de fonds, devant à chaque fois démontrer une croissance exponentielle et des performances de pointe pour justifier leur prochaine majoration de valorisation.

ProblÚme de différenciation des LLM

À ce dĂ©fi structurel s'ajoute une tendance inquiĂ©tante : la convergence rapide des capacitĂ©s des grands modĂšles linguistiques (LLM). Les startups, comme Licorne Mistral IA et d’autres, ont dĂ©montrĂ© que les modĂšles open source peuvent atteindre la performance comparables Ă  leurs homologues Ă  source fermĂ©e, mais la diffĂ©renciation technique qui justifiait auparavant des valorisations trĂšs Ă©levĂ©es devient de plus en plus difficile Ă  maintenir.

En d’autres termes, mĂȘme si chaque nouveau LLM affiche des performances impressionnantes basĂ©es sur des critĂšres de rĂ©fĂ©rence standard, aucun changement vĂ©ritablement significatif n’est en cours dans l’architecture du modĂšle sous-jacent.

Les limitations actuelles dans ce domaine proviennent de trois domaines critiques : DisponibilitĂ© des donnĂ©es, car nous manquons de matĂ©riel de formation de haute qualitĂ© (comme confirmĂ© par Elon Musk rĂ©cemment); mĂ©thodes de conservation, car ils adoptent tous des approches de rĂ©troaction humaine similaires mises au point par OpenAI ; et architecture informatique, car ils s’appuient sur le mĂȘme pool limitĂ© de matĂ©riel GPU spĂ©cialisĂ©.

On observe une tendance Ă©mergente oĂč les gains proviennent de plus en plus de l'efficacitĂ© plutĂŽt que de l'Ă©chelle. Les entreprises se concentrent sur la compression de davantage de connaissances dans un nombre rĂ©duit de jetons et sur le dĂ©veloppement d'artefacts d'ingĂ©nierie plus performants, comme des systĂšmes de rĂ©cupĂ©ration tels que les graphes RAG (gĂ©nĂ©ration augmentĂ©e de rĂ©cupĂ©ration). En rĂ©sumĂ©, nous approchons d'un palier naturel oĂč l'augmentation des ressources consacrĂ©es au problĂšme produit des rendements dĂ©croissants.

En raison du rythme sans prĂ©cĂ©dent de l’innovation au cours des deux derniĂšres annĂ©es, cette convergence des capacitĂ©s LLM se produit plus rapidement que quiconque ne l’avait prĂ©vu, crĂ©ant une course contre la montre pour les entreprises qui ont levĂ© des fonds.

D’aprĂšs les derniĂšres tendances de la recherche, la prochaine frontiĂšre pour rĂ©soudre ce problĂšme est l’émergence de ModĂšles de grands concepts (LCM) en tant qu'architecture nouvelle et rĂ©volutionnaire, concurrente des LLM dans leur domaine principal, qui est la comprĂ©hension du langage naturel (NLP).

Techniquement parlant, les LCM présenteront plusieurs avantages, notamment la possibilité d'améliorer les performances avec moins d'itérations et la capacité d'obtenir des résultats similaires avec des équipes plus petites. Je pense que ces LCM de nouvelle génération seront développés et commercialisés par des équipes dérivées, les fameux « ex-big tech » non conformistes qui fonderont de nouvelles startups pour mener cette révolution.

Décalage du calendrier de monétisation

La compression des cycles d'innovation a créé un autre problĂšme crucial : l'inadĂ©quation entre dĂ©lai de mise sur le marchĂ© et monĂ©tisation durable. Si la verticalisation des applications d'IA connaĂźt une vitesse sans prĂ©cĂ©dent – ​​avec des agents vocaux, par exemple, passant du concept Ă  des produits gĂ©nĂ©rateurs de revenus en quelques mois seulement –, cette commercialisation rapide masque un problĂšme plus profond.

ConsidĂ©rez ceci : une start-up d’IA valorisĂ©e aujourd’hui Ă  20 milliards de dollars devra probablement gĂ©nĂ©rer environ 1 milliard de dollars de revenus annuels d’ici 4 Ă  5 ans pour justifier son introduction en bourse Ă  un multiple raisonnable. Cela nĂ©cessite non seulement l’excellence technologique, mais aussi une transformation radicale de l’ensemble du modĂšle Ă©conomique, d’une approche axĂ©e sur la R&D Ă  une approche axĂ©e sur les ventes, tout en maintenant le rythme de l’innovation et en gĂ©rant d’énormes coĂ»ts d’infrastructure.

En ce sens, les nouvelles startups axées sur le LCM qui émergeront en 2025 seront mieux placées pour lever des fonds, avec des valorisations initiales plus faibles, ce qui en fera des cibles de financement plus attractives pour les investisseurs.

Pénurie de matériel informatique et nouvelles alternatives

Examinons de plus prĂšs l'infrastructure. Aujourd'hui, chaque nouveau cluster de GPU est achetĂ© avant mĂȘme d'ĂȘtre construit par les grands acteurs, obligeant les petits acteurs Ă  s'engager dans des contrats Ă  long terme avec des fournisseurs de cloud, sous peine d'ĂȘtre totalement exclus du marchĂ©.

Mais voici ce qui est vraiment intĂ©ressant : alors que tout le monde se dispute les GPU, un changement fascinant s'est produit dans le paysage matĂ©riel, encore largement nĂ©gligĂ©. L'architecture GPU actuelle, appelĂ©e GPGPU (General Purpose GPU), est incroyablement inefficace pour rĂ©pondre aux besoins rĂ©els de la plupart des entreprises en production. C'est comme utiliser un supercalculateur pour exĂ©cuter une application de calcul.

C'est pourquoi je suis convaincu que le matériel d'IA spécialisé constituera la prochaine grande révolution de notre secteur. Des entreprises comme Groq et Cerebras développent du matériel d'inférence quatre à cinq fois moins cher à exploiter que les GPU traditionnels. Certes, l'optimisation des modÚles pour ces plateformes entraßne des coûts d'ingénierie plus élevés, mais pour les entreprises exécutant des charges de travail d'inférence à grande échelle, les gains d'efficacité sont évidents.

Densité des données et essor de modÚles plus petits et plus intelligents

Passer Ă  la prochaine frontiĂšre de l’innovation en matiĂšre d’IA nĂ©cessitera probablement non seulement une plus grande puissance de calcul – en particulier pour les grands modĂšles comme les LCM – mais Ă©galement des ensembles de donnĂ©es plus riches et plus complets.

Il est intéressant de noter que des modÚles plus petits et plus efficaces commencent à concurrencer les plus grands en capitalisant sur la densité de leur entraßnement à partir des données disponibles. Par exemple, des modÚles comme FeeFree de Microsoft ou Gema2B de Google fonctionnent avec beaucoup moins de paramÚtres (souvent autour de 2 à 3 milliards) et atteignent pourtant des niveaux de performance comparables à des modÚles beaucoup plus grands avec 8 milliards de paramÚtres.

Ces modÚles plus petits sont de plus en plus compétitifs en raison de leur forte densité de données, ce qui les rend robustes malgré leur taille. Cette évolution vers des modÚles compacts, mais puissants, s'aligne sur les avantages stratégiques dont disposent des entreprises comme Microsoft et Google : l'accÚs à des ensembles de données massifs et diversifiés via des plateformes telles que Bing et Google Search.

Cette dynamique rĂ©vĂšle deux « guerres » cruciales qui se dĂ©roulent dans le dĂ©veloppement de l’IA : l’une pour la puissance de calcul et l’autre pour les donnĂ©es. Si les ressources informatiques sont essentielles pour repousser les limites, la densitĂ© des donnĂ©es devient tout aussi, voire plus, cruciale. Les entreprises ayant accĂšs Ă  de vastes ensembles de donnĂ©es sont particuliĂšrement bien placĂ©es pour former des modĂšles plus petits avec une efficacitĂ© et une robustesse inĂ©galĂ©es, consolidant ainsi leur domination dans le paysage en constante Ă©volution de l’IA.

Qui gagnera la guerre de l’IA ?

Dans ce contexte, tout le monde se demande qui, dans le paysage actuel de l'IA, est le mieux placé pour en sortir vainqueur. Voici quelques pistes de réflexion.

Les grandes entreprises technologiques ont achetĂ© Ă  l’avance des clusters de GPU entiers avant leur construction, crĂ©ant ainsi un environnement de pĂ©nurie pour les petits acteurs. Commande de plus de 100,000 XNUMX GPU par Oracle et des initiatives similaires de Meta et Microsoft illustrent cette tendance.

Ayant investi des centaines de milliards dans des initiatives d’IA, ces entreprises ont besoin de milliers d’ingĂ©nieurs et de chercheurs spĂ©cialisĂ©s dans ce domaine. Cela crĂ©e une demande de talents sans prĂ©cĂ©dent qui ne peut ĂȘtre satisfaite que par des acquisitions stratĂ©giques, ce qui entraĂźnera probablement l’absorption de nombreuses startups dans les mois Ă  venir.

Alors que l’annĂ©e 2025 sera consacrĂ©e Ă  la recherche et au dĂ©veloppement Ă  grande Ă©chelle et au dĂ©veloppement d’infrastructures pour ces acteurs, d’ici 2026, ils seront en mesure de frapper comme jamais auparavant grĂące Ă  des ressources inĂ©galĂ©es.

Cela ne signifie pas que les petites entreprises d'IA sont condamnĂ©es, loin de lĂ . Le secteur continuera d'innover et de crĂ©er de la valeur. Certaines innovations clĂ©s du secteur, comme les LCM, devraient ĂȘtre portĂ©es par de petits acteurs Ă©mergents au cours de l'annĂ©e Ă  venir, aux cĂŽtĂ©s de Meta, Google/Alphabet et OpenAI avec Anthropic, qui travaillent actuellement sur des projets prometteurs.

Cependant, nous assisterons probablement Ă  une restructuration fondamentale du financement et de la valorisation des entreprises d'IA. À mesure que le capital-risque deviendra plus exigeant, les entreprises devront dĂ©montrer clairement leur capacitĂ© Ă  assurer une rentabilitĂ© unitaire durable – un dĂ©fi particulier pour les entreprises open source en concurrence avec des alternatives propriĂ©taires bien dotĂ©es en ressources.

Pour les entreprises d’IA open source en particulier, la voie Ă  suivre peut nĂ©cessiter de se concentrer sur des applications verticales spĂ©cifiques oĂč leurs capacitĂ©s de transparence et de personnalisation offrent des avantages Ă©vidents par rapport aux solutions propriĂ©taires.

Jean-Louis Quéguiner est le fondateur et PDG de GladieIl était auparavant vice-président du groupe Data, IA et informatique quantique chez OVHcloud, l'un des principaux fournisseurs de cloud en Europe. Il est titulaire d'un master en IA symbolique de l'Université du Québec au Canada et des Arts et Métiers ParisTech à Paris. Au cours de sa carriÚre, il a occupé des postes importants dans divers secteurs, notamment l'analyse de données financiÚres, les applications d'apprentissage automatique pour la publicité numérique en temps réel et le développement d'API d'IA vocale.