Connect with us

I modelli di intelligenza artificiale stanno diventando beni di consumo?

Intelligenza artificiale

I modelli di intelligenza artificiale stanno diventando beni di consumo?

mm

Il CEO di Microsoft, Satya Nadella, ha recentemente scatenato un dibattito suggerendo che i modelli di intelligenza artificiale avanzati sono sulla strada della commoditizzazione. In un podcast, Nadella ha osservato che i modelli fondamentali stanno diventando sempre più simili e ampiamente disponibili, al punto in cui “i modelli di per sé non sono sufficienti” per un vantaggio competitivo duraturo. Ha sottolineato che OpenAI – nonostante le sue reti neurali all’avanguardia – “non è un’azienda di modelli; è un’azienda di prodotti che happens to avere modelli fantastici”, sottolineando che il vero vantaggio deriva dalla costruzione di prodotti intorno ai modelli.

In altre parole, avere semplicemente il modello più avanzato potrebbe non garantire più la leadership del mercato, poiché qualsiasi vantaggio in termini di prestazioni può essere di breve durata nel rapido ritmo dell’innovazione nell’intelligenza artificiale.

La prospettiva di Nadella ha un peso in un’industria in cui i giganti della tecnologia stanno correndo per addestrare modelli sempre più grandi. Il suo argomento implica un cambio di focus: invece di ossessionarsi per la supremazia del modello, le aziende dovrebbero dirigere l’energia verso l’integrazione dell’intelligenza artificiale in “un pieno sistema stack e prodotti di successo”.

Ciò risuona con un sentimento più ampio che le attuali scoperte nell’intelligenza artificiale diventano rapidamente le caratteristiche di base di domani. Mentre i modelli diventano più standardizzati e accessibili, l’attenzione si sposta su come l’intelligenza artificiale viene applicata nei servizi del mondo reale. Aziende come Microsoft e Google, con vasti ecosistemi di prodotti, potrebbero essere meglio posizionate per capitalizzare questo trend di intelligenza artificiale commoditizzata incorporando modelli in offerte user-friendly.

Aumento dell’accesso e modelli aperti

Non molto tempo fa, solo una manciata di laboratori poteva costruire modelli di intelligenza artificiale all’avanguardia, ma quell’esclusività sta scomparendo rapidamente. Le capacità di intelligenza artificiale sono sempre più accessibili alle organizzazioni e anche agli individui, alimentando la nozione di modelli come beni di consumo. Il ricercatore di intelligenza artificiale Andrew Ng già nel 2017 paragonò il potenziale dell’intelligenza artificiale all’“elettricità nuova”, suggerendo che proprio come l’elettricità è diventata una commodity ubiqua che sostiene la vita moderna, i modelli di intelligenza artificiale potrebbero diventare utility fondamentali disponibili da molti fornitori.

La recente proliferazione di modelli open-source ha accelerato questo trend. Meta (l’azienda madre di Facebook), ad esempio, ha fatto scalpore rilasciando apertamente potenti modelli linguistici come LLaMA ai ricercatori e agli sviluppatori senza alcun costo. Il ragionamento è strategico: rilasciando apertamente la sua intelligenza artificiale, Meta può stimolare un’adozione più ampia e ottenere contributi della comunità, mentre sottolinea i vantaggi proprietary dei rivali. E ancora più recentemente, il mondo dell’intelligenza artificiale è esploso con il rilascio del modello cinese DeepSeek.

Nel regno della generazione di immagini, il modello Stable Diffusion di Stability AI ha mostrato come rapidamente una scoperta possa diventare commoditizzata: entro pochi mesi dal suo rilascio open nel 2022, è diventato un nome noto nell’intelligenza artificiale generativa, disponibile in innumerevoli applicazioni. In effetti, l’ecosistema open-source sta esplodendo – ci sono decine di migliaia di modelli di intelligenza artificiale disponibili pubblicamente su repository come Hugging Face.

Questa ubiquità significa che le organizzazioni non devono più affrontare una scelta binaria tra pagare per un modello segreto di un singolo fornitore o nulla del tutto. Invece, possono scegliere da un menu di modelli (open o commerciali) o anche adattare i propri, proprio come selezionare beni di consumo da un catalogo. La sheer numero di opzioni è un forte indicatore che l’intelligenza artificiale avanzata sta diventando una risorsa condivisa ampiamente piuttosto che un privilegio gelosamente custodito.

I giganti del cloud trasformano l’intelligenza artificiale in un servizio di utility

I principali fornitori di cloud sono stati i principali abilitatori – e driver – della commoditizzazione dell’intelligenza artificiale. Aziende come Microsoft, Amazon e Google offrono modelli di intelligenza artificiale come servizi on-demand, simili a utility consegnate tramite il cloud. Nadella ha notato che “i modelli stanno diventando commoditizzati nel [cloud]”, sottolineando come il cloud renda l’intelligenza artificiale potente ampiamente accessibile.

In effetti, il cloud di Microsoft Azure ha una partnership con OpenAI, che consente a qualsiasi sviluppatore o azienda di accedere a GPT-4 o ad altri modelli di punta tramite una chiamata API, senza costruire la propria intelligenza artificiale da zero. Amazon Web Services (AWS) è andato oltre con la sua piattaforma Bedrock, che funge da marketplace di modelli. AWS Bedrock offre una selezione di modelli fondamentali da diverse aziende leader nell’intelligenza artificiale – dai modelli di Amazon ai modelli di Anthropic, AI21 Labs, Stability AI e altri – tutti accessibili tramite un servizio gestito.

Questo approccio “molti modelli, una piattaforma” esemplifica la commoditizzazione: i clienti possono scegliere il modello che si adatta alle loro esigenze e passare a un altro fornitore con relativa facilità, proprio come fare shopping per un bene di consumo.

In termini pratici, ciò significa che le aziende possono fare affidamento su piattaforme cloud per avere sempre a disposizione un modello all’avanguardia, proprio come l’elettricità da una rete – e se un nuovo modello fa notizia (ad esempio una scoperta di un’azienda startup), il cloud offrirà prontamente.

Differenziazione oltre il modello stesso

Se tutti hanno accesso a modelli di intelligenza artificiale simili, come possono le aziende di intelligenza artificiale differenziarsi? Questo è il cuore del dibattito sulla commoditizzazione. Il consenso tra i leader dell’industria è che il valore giacerà nell’applicazione dell’intelligenza artificiale, non solo nell’algoritmo. La strategia di OpenAI riflette questo cambio di direzione. L’azienda si è concentrata negli ultimi anni sulla consegna di un prodotto rifinito (ChatGPT e la sua API) e un ecosistema di miglioramenti – come servizi di fine-tuning, plugin add-on e interfacce user-friendly – piuttosto che semplicemente rilasciare codice di modello grezzo.

In pratica, ciò significa offrire prestazioni affidabili, opzioni di personalizzazione e strumenti per gli sviluppatori intorno al modello. Allo stesso modo, i team DeepMind e Brain di Google, ora parte di Google DeepMind, stanno canalizzando la loro ricerca nei prodotti di Google come la ricerca, le applicazioni di office e le API cloud – incorporando l’intelligenza artificiale per rendere quei servizi più intelligenti. La sofisticazione tecnica del modello è certamente importante, ma Google sa che gli utenti si preoccupano ultimately delle esperienze abilitate dall’intelligenza artificiale (un motore di ricerca migliore, un assistente digitale più utile, ecc.), non del nome o della dimensione del modello.

Stiamo anche vedendo aziende differenziarsi attraverso la specializzazione. Invece di un modello per governare tutti, alcune aziende di intelligenza artificiale costruiscono modelli adattati a domini o compiti specifici, dove possono affermare una qualità superiore anche in un paesaggio commoditizzato. Ad esempio, ci sono startup di intelligenza artificiale che si concentrano esclusivamente sulla diagnostica sanitaria, finanza o legge – aree in cui dati proprietari e competenza di dominio possono produrre un miglior modello per quella nicchia rispetto a un sistema general-purpose. Queste aziende sfruttano il fine-tuning di modelli open o modelli più piccoli su misura, abbinati a dati proprietari, per distinguersi.

Interfaccia di ChatGPT di OpenAI e raccolta di modelli specializzati (Unite AI/Alex McFarland)

Un’altra forma di differenziazione è l’efficienza e il costo. Un modello che consegna prestazioni pari a un costo computazionale ridotto può essere un vantaggio competitivo. Ciò è stato messo in evidenza dall’emergere del modello R1 di DeepSeek, che ha riportato di aver eguagliato alcune delle capacità di GPT-4 di OpenAI con un costo di addestramento inferiore a 6 milioni di dollari, drasticamente inferiore ai 100+ milioni di dollari stimati per GPT-4. Tali guadagni di efficienza suggeriscono che mentre le uscite di modelli diversi potrebbero diventare simili, un fornitore potrebbe distinguersi raggiungendo quei risultati a un costo inferiore o più velocemente.

Infine, c’è la corsa a costruire la fedeltà degli utenti e gli ecosistemi intorno ai servizi di intelligenza artificiale. Una volta che un’azienda ha integrato profondamente un particolare modello di intelligenza artificiale nel proprio flusso di lavoro (con prompt personalizzati, integrazioni e dati fine-tuned), passare a un altro modello non è privo di attrito. Fornitori come OpenAI, Microsoft e altri stanno cercando di aumentare questa adesività offrendo piattaforme complete – dalle SDK per gli sviluppatori ai mercati di plugin di intelligenza artificiale – che rendono la loro versione di intelligenza artificiale più di una soluzione full-stack che di un bene di consumo sostituibile.

Le aziende stanno muovendosi verso l’alto nella catena del valore: quando il modello stesso non è un fossato, la differenziazione deriva da tutto ciò che circonda il modello – i dati, l’esperienza utente, l’esperienza verticale e l’integrazione nei sistemi esistenti.

Ripercussioni economiche della commoditizzazione dell’intelligenza artificiale

La commoditizzazione dei modelli di intelligenza artificiale porta con sé significative implicazioni economiche. Nel breve termine, sta spingendo verso il basso il costo delle capacità di intelligenza artificiale. Con più concorrenti e alternative open, il prezzo dei servizi di intelligenza artificiale è stato in una spirale discendente simile ai mercati delle commodity classiche.

Negli ultimi due anni, OpenAI e altri fornitori hanno drasticamente ridotto i prezzi per l’accesso ai modelli linguistici. Ad esempio, il prezzo dei token di OpenAI per la sua serie GPT è sceso di oltre l’80% dal 2023 al 2024, una riduzione attribuita all’aumento della concorrenza e ai guadagni di efficienza.

Allo stesso modo, nuovi entranti che offrono modelli più economici o open costringono gli incumbent a offrire di più per meno – sia attraverso piani gratuiti, rilasci open-source o offerte bundle. Ciò è una buona notizia per i consumatori e le aziende che adottano l’intelligenza artificiale, poiché le capacità avanzate diventano sempre più accessibili. Significa anche che la tecnologia dell’intelligenza artificiale si sta diffondendo più rapidamente in tutta l’economia: quando qualcosa diventa più economico e standardizzato, più settori lo incorporano, alimentando l’innovazione (proprio come il hardware dei PC a basso costo negli anni 2000 ha portato a un’esplosione di servizi e software di internet).

Stiamo già vedendo un’ondata di adozione dell’intelligenza artificiale in settori come il servizio clienti, il marketing e le operazioni, guidata da modelli e servizi facilmente disponibili. Una disponibilità più ampia può così espandere il mercato complessivo delle soluzioni di intelligenza artificiale, anche se i margini di profitto sui modelli stessi si riducono.

Dinamiche economiche della commoditizzazione dell’intelligenza artificiale (Unite AI/Alex McFarland)

Tuttavia, la commoditizzazione può anche ridisegnare il paesaggio competitivo in modi impegnativi. Per i laboratori di intelligenza artificiale stabiliti che hanno investito miliardi nello sviluppo di modelli di frontiera, la prospettiva che quei modelli producano solo vantaggi transitori solleva domande sul ROI. Potrebbero dover aggiustare i loro modelli di business – ad esempio, concentrandosi su servizi aziendali, vantaggi di dati proprietari o prodotti di abbonamento costruiti sopra i modelli, piuttosto che vendere solo l’accesso alle API.

C’è anche un elemento di corsa agli armamenti: quando qualsiasi innovazione in termini di prestazioni è rapidamente eguagliata o superata da altri (o anche dalle comunità open-source), la finestra per monetizzare un modello innovativo si restringe. Ciò spinge le aziende a considerare alternative economiche. Una di queste è l’integrazione con dati proprietari (che non sono commoditizzati) – l’intelligenza artificiale adattata sui dati di un’azienda può essere più preziosa per quell’azienda di qualsiasi modello off-the-shelf.

Un’altra è costituita da caratteristiche di regolamentazione o conformità, dove un fornitore potrebbe offrire modelli con garanzia di privacy o conformità per l’uso aziendale, differenziandosi in un modo che va oltre la tecnologia grezza. A livello macro, se i modelli di intelligenza artificiale fondamentali diventano ubiqui come i database o i server web, potremmo vedere uno spostamento in cui i servizi intorno all’intelligenza artificiale (hosting cloud, consulenza, personalizzazioni, manutenzione) diventano i principali generatori di entrate. Già, i fornitori di cloud traggono beneficio da una maggiore domanda di infrastrutture di calcolo (CPU, GPU, ecc.) per eseguire tutti questi modelli – un po’ come un’azienda di servizi pubblici trae profitto dall’uso anche se gli elettrodomestici sono commoditizzati.

In sostanza, l’economia dell’intelligenza artificiale potrebbe rispecchiare quella di altre commodity IT: costi più bassi e maggiore accesso stimolano un uso più ampio, creando nuove opportunità costruite sopra il livello commoditizzato, anche mentre i fornitori di quel livello affrontano margini più stretti e la necessità di innovare costantemente o differenziarsi altrove.

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.