Seguici sui social

Il problema da mille miliardi di dollari dell'intelligenza artificiale

Leader del pensiero

Il problema da mille miliardi di dollari dell'intelligenza artificiale

mm

Con l'avvicinarsi del 2025, il settore dell'intelligenza artificiale si trova a un punto di svolta cruciale. Sebbene il settore continui ad attrarre livelli di investimenti e attenzione senza precedenti, soprattutto nel panorama dell'intelligenza artificiale generativa, diverse dinamiche di mercato sottostanti suggeriscono che ci stiamo dirigendo verso un grande cambiamento nel panorama dell'intelligenza artificiale nel prossimo anno.

Grazie alla mia esperienza alla guida di una startup di intelligenza artificiale e all'osservazione della rapida evoluzione del settore, credo che quest'anno porterà molti cambiamenti fondamentali: dai grandi modelli concettuali (LCM), che si prevede emergeranno come seri concorrenti, ai grandi modelli linguistici (LLM), all'ascesa di hardware di intelligenza artificiale specializzato, fino alle grandi aziende tecnologiche che inizieranno a sviluppare importanti infrastrutture di intelligenza artificiale che le metteranno finalmente in grado di superare startup come OpenAI e Anthropic e, chissà, forse persino di assicurarsi il monopolio dell'intelligenza artificiale.

Sfida unica delle aziende di intelligenza artificiale: né software né hardware

La questione fondamentale sta nel modo in cui le aziende di intelligenza artificiale operano in una via di mezzo mai vista prima tra le tradizionali aziende di software e hardware. A differenza delle pure aziende di software che investono principalmente in capitale umano con spese operative relativamente basse, o delle aziende di hardware che effettuano investimenti di capitale a lungo termine con chiari percorsi di ritorno, le aziende di intelligenza artificiale affrontano una combinazione unica di sfide che rendono precari i loro attuali modelli di finanziamento.

Queste aziende richiedono ingenti investimenti iniziali per cluster GPU e infrastrutture, spendendo 100-200 milioni di dollari all'anno solo per le risorse di elaborazione. Tuttavia, a differenza delle aziende hardware, non possono ammortizzare questi investimenti su periodi prolungati. Operano invece su cicli compressi di due anni tra un round di finanziamento e l'altro, dovendo ogni volta dimostrare una crescita esponenziale e prestazioni all'avanguardia per giustificare il successivo aumento di valutazione.

Problema di differenziazione degli LLM

A questa sfida strutturale si aggiunge una tendenza preoccupante: la rapida convergenza delle capacità dei grandi modelli linguistici (LLM). Le startup, come la unicorno Mistral AI e altri, hanno dimostrato che i modelli open source possono ottenere prestazioni paragonabili alle loro controparti closed-source, ma la differenziazione tecnica che in precedenza giustificava valutazioni alle stelle sta diventando sempre più difficile da mantenere.

In altre parole, sebbene ogni nuovo LLM vanti prestazioni impressionanti in base ai benchmark standard, non si verifica un cambiamento veramente significativo nell'architettura del modello sottostante.

Le attuali limitazioni in questo dominio derivano da tre aree critiche: disponibilità dei dati, poiché stiamo esaurendo il materiale di formazione di alta qualità (come confermato da Elon Musk recentemente); metodi di curatela, poiché tutti adottano approcci simili di feedback umano introdotti da OpenAI; e architettura computazionale, poiché si basano sullo stesso pool limitato di hardware GPU specializzato.

Ciò che sta emergendo è un modello in cui i guadagni derivano sempre più dall'efficienza piuttosto che dalla scala. Le aziende si stanno concentrando sulla compressione di più conoscenza in meno token e sullo sviluppo di artefatti ingegneristici migliori, come sistemi di recupero come i grafi RAG (generazione aumentata dal recupero). In sostanza, ci stiamo avvicinando a un plateau naturale in cui investire più risorse per risolvere il problema produce rendimenti decrescenti.

Grazie al ritmo senza precedenti dell'innovazione degli ultimi due anni, questa convergenza delle capacità LLM sta avvenendo più velocemente di quanto chiunque avesse previsto, creando una corsa contro il tempo per le aziende che hanno raccolto fondi.

Sulla base delle ultime tendenze della ricerca, la prossima frontiera per affrontare questo problema è l'emergere di modelli concettuali di grandi dimensioni (LCM) come una nuova architettura rivoluzionaria che compete con gli LLM nel loro dominio principale, ovvero la comprensione del linguaggio naturale (NLP).

Tecnicamente parlando, gli LCM avranno diversi vantaggi, tra cui il potenziale per prestazioni migliori con meno iterazioni e la capacità di ottenere risultati simili con team più piccoli. Credo che questi LCM di nuova generazione saranno sviluppati e commercializzati da team spin-off, i famosi anticonformisti "ex big tech" che fondano nuove startup per guidare questa rivoluzione.

Incongruenza nella cronologia della monetizzazione

La compressione dei cicli di innovazione ha creato un altro problema critico: la discrepanza tra time-to-market e monetizzazione sostenibile. Mentre assistiamo a una velocità senza precedenti nella verticalizzazione delle applicazioni di intelligenza artificiale – con gli agenti di intelligenza artificiale vocale, ad esempio, che passano dall'ideazione alla produzione di prodotti redditizi in pochi mesi – questa rapida commercializzazione maschera un problema più profondo.

Considerate questo: una startup di intelligenza artificiale valutata oggi 20 miliardi di dollari dovrà probabilmente generare circa 1 miliardo di dollari di fatturato annuo entro 4-5 anni per giustificare la quotazione in borsa a un multiplo ragionevole. Ciò richiede non solo l'eccellenza tecnologica, ma anche una trasformazione radicale dell'intero modello di business, da focalizzato su R&S a guidato dalle vendite, il tutto mantenendo il ritmo dell'innovazione e gestendo enormi costi infrastrutturali.

In questo senso, le nuove startup focalizzate su LCM che emergeranno nel 2025 saranno in una posizione migliore per reperire finanziamenti, con valutazioni iniziali più basse che le renderanno obiettivi di finanziamento più interessanti per gli investitori.

Carenza di hardware e alternative emergenti

Diamo un'occhiata più da vicino all'infrastruttura in particolare. Oggi, ogni nuovo cluster GPU viene acquistato prima ancora di essere realizzato dai grandi player, costringendo i player più piccoli a impegnarsi in contratti a lungo termine con i provider cloud, altrimenti rischiano di essere completamente esclusi dal mercato.

Ma ecco cosa è davvero interessante: mentre tutti si contendono le GPU, si è verificato un affascinante cambiamento nel panorama hardware che viene ancora ampiamente trascurato. L'attuale architettura GPU, chiamata GPGPU (General Purpose GPU), è incredibilmente inefficiente per ciò di cui la maggior parte delle aziende ha effettivamente bisogno in produzione. È come usare un supercomputer per eseguire un'app calcolatrice.

Ecco perché credo che l'hardware specializzato per l'intelligenza artificiale rappresenterà il prossimo grande cambiamento nel nostro settore. Aziende come Groq e Cerebras stanno sviluppando hardware specifico per l'inferenza, il cui utilizzo è 4-5 volte più economico rispetto alle GPU tradizionali. Certo, l'ottimizzazione dei modelli per queste piattaforme comporta costi di progettazione iniziali più elevati, ma per le aziende che gestiscono carichi di lavoro di inferenza su larga scala, i guadagni in termini di efficienza sono evidenti.

Densità dei dati e ascesa di modelli più piccoli e intelligenti

Per passare alla prossima frontiera dell'innovazione nell'intelligenza artificiale sarà probabilmente necessaria non solo una maggiore potenza di calcolo, soprattutto per modelli di grandi dimensioni come i modelli a più basso consumo (LCM), ma anche set di dati più ricchi e completi.

È interessante notare che modelli più piccoli ed efficienti stanno iniziando a sfidare quelli più grandi, capitalizzando su quanto sono densamente addestrati sui dati disponibili. Ad esempio, modelli come FeeFree di Microsoft o Gema2B di Google, operano con molti meno parametri, spesso intorno ai 2-3 miliardi, ma raggiungono livelli di prestazioni paragonabili a modelli molto più grandi con 8 miliardi di parametri.

Questi modelli più piccoli sono sempre più competitivi a causa della loro elevata densità di dati, che li rende robusti nonostante le loro dimensioni. Questo passaggio verso modelli compatti, ma potenti, si allinea con i vantaggi strategici che aziende come Microsoft e Google detengono: accesso a set di dati enormi e diversificati tramite piattaforme come Bing e Google Search.

Questa dinamica rivela due "guerre" critiche che si stanno svolgendo nello sviluppo dell'IA: una sulla potenza di calcolo e un'altra sui dati. Mentre le risorse computazionali sono essenziali per superare i limiti, la densità dei dati sta diventando altrettanto critica, se non di più. Le aziende con accesso a vasti set di dati sono in una posizione unica per addestrare modelli più piccoli con efficienza e robustezza senza pari, consolidando il loro predominio nel panorama dell'IA in evoluzione.

Chi vincerà la guerra dell'intelligenza artificiale?

In questo contesto, a tutti piace chiedersi chi nell'attuale panorama dell'IA sia meglio posizionato per uscirne vincitore. Ecco qualche spunto di riflessione.

Le principali aziende tecnologiche hanno pre-acquistato interi cluster di GPU prima della costruzione, creando un ambiente di scarsità per i player più piccoli. Ordine di oltre 100,000 GPU di Oracle e mosse simili da parte di Meta e Microsoft esemplificano questa tendenza.

Avendo investito centinaia di miliardi in iniziative di IA, queste aziende necessitano di migliaia di ingegneri e ricercatori specializzati in IA. Ciò crea una domanda di talenti senza precedenti che può essere soddisfatta solo tramite acquisizioni strategiche, il che probabilmente porterà all'assorbimento di molte startup nei prossimi mesi.

Mentre il 2025 sarà dedicato a investimenti su larga scala in attività di ricerca e sviluppo e alla realizzazione di infrastrutture per tali attori, entro il 2026 saranno in grado di colpire come mai prima, grazie a risorse senza pari.

Questo non significa che le aziende di intelligenza artificiale più piccole siano destinate al fallimento, tutt'altro. Il settore continuerà a innovare e a creare valore. Alcune innovazioni chiave nel settore, come gli LCM, saranno probabilmente guidate da attori più piccoli ed emergenti nel prossimo anno, insieme a Meta, Google/Alphabet e OpenAI con Anthropic, che al momento stanno lavorando a progetti entusiasmanti.

Tuttavia, è probabile che assisteremo a una radicale ristrutturazione del modo in cui le aziende di intelligenza artificiale vengono finanziate e valutate. Man mano che il capitale di rischio diventa più selettivo, le aziende dovranno dimostrare percorsi chiari verso un'economia unitaria sostenibile, una sfida particolare per le aziende open source che competono con alternative proprietarie ben finanziate.

In particolare, per le aziende di intelligenza artificiale open source, il percorso da seguire potrebbe richiedere di concentrarsi su specifiche applicazioni verticali in cui la loro trasparenza e capacità di personalizzazione offrono chiari vantaggi rispetto alle soluzioni proprietarie.

Jean-Louis Quéguiner è il fondatore e CEO di gladiaIn precedenza ha ricoperto il ruolo di Group Vice President of Data, AI, and Quantum Computing presso OVHcloud, uno dei principali provider cloud in Europa. Ha conseguito un Master in Symbolic AI presso l'Università del Québec in Canada e Arts et Métiers ParisTech a Parigi. Nel corso della sua carriera, ha ricoperto posizioni significative in vari settori, tra cui analisi dei dati finanziari, applicazioni di machine learning per la pubblicità digitale in tempo reale e sviluppo di API di intelligenza artificiale vocale.