Leader di pensiero
2026 Previsioni: Dalla Commoditizzazione dei LLM all’Età della Memoria Agente

All’inizio del 2025, ho previsto la commoditizzazione dei large language model.
Mentre i prezzi dei token sono crollati e le aziende sono passate dall’esperimentazione alla produzione, quella previsione è diventata rapidamente realtà, ridefinendo il modo in cui vengono costruiti e gestiti i sistemi di intelligenza artificiale in vista del 2026.
Cosa ha azzeccato il 2025
Diverse tendenze che sembravano incerte l’anno scorso si sono ora materializzate.
Innanzitutto, i LLM sono diventati infrastrutture di intelligenza artificiale fondamentali. I tagli ai costi e i miglioramenti delle pipeline di inferenza hanno spinto molti carichi di lavoro in produzione, in particolare per compiti più semplici come l’estrazione di entità, la classificazione e la sintesi. La domanda per le aziende non è più “quale modello dobbiamo utilizzare?” ma “come progettare sistemi che possano sopravvivere al cambiamento del modello?”
In secondo luogo, gli agenti hanno dimostrato di poter consumare enormi volumi di testo aziendale. I leader continuano a essere sfidati dal caos che la documentazione di conformità porta quando si desidera estrarre dati per informare le decisioni. I dati di comunicazione che in precedenza venivano ignorati nelle email, nei biglietti e nei registri di chat sono ora attivamente utilizzati dagli agenti per fornire insight e raccomandazioni. Ciò ricorda la prima ondata di big data dei primi anni 2010, quando l’archiviazione a basso costo e nuovi strumenti hanno sbloccato set di dati dormienti.
In terzo luogo, la conoscenza simbolica è tornata silenziosamente. I grafici della conoscenza, un tempo considerati costosi e fragili, hanno trovato una nuova vita attraverso GraphRAG e l’estrazione guidata dagli agenti. I grafici imperfetti si sono rivelati utili. L’iterazione ora conta più della perfezione iniziale. Ciò non è solo uno sforzo di riorganizzazione, ma un vero e proprio spostamento di come i sistemi simbolici e statistici lavorano insieme.
Infine, fine-tuning ha riacquistato importanza. Mentre l’apprendimento in contesto ha affrontato limiti per compiti sensibili alla latenza e pesanti per il ragionamento, modelli più piccoli e specializzati sono diventati nuovamente attraenti. L’industria ha riscoperto una vecchia verità: non ogni problema richiede un modello generale gigante.
Mentre queste tendenze sono diventate essenziali, il vero punto di svolta si verificherà nel 2026.
La memoria agente diventa fondamentale
Nel 2026, gli agenti smetteranno di essere strumenti senza stato e inizieranno a comportarsi come sistemi con memoria.
È qui che emerge l’idea di memoria agente. Mentre potrebbe essere allettante descriverlo come una riorganizzazione dei grafici della conoscenza, tale inquadramento perde il punto. La memoria agente è un’evoluzione. Combina rappresentazioni simboliche strutturate con la capacità degli agenti di ragionare, aggiornare e agire nel tempo.
La memoria è ciò che trasforma gli agenti da risponditori reattivi in sistemi di decisione. Senza di essa, gli agenti ripetono il lavoro, allucinano il contesto e falliscono nell’apprendere dalle azioni passate. Con essa, le aziende possono costruire sistemi di intelligenza artificiale che accumulano conoscenza istituzionale piuttosto che scartarla ad ogni prompt.
La fusione dei modelli sostituisce il culto del modello
Uno degli sviluppi meno discussi è la crescita della fusione dei modelli e dell’addestramento distribuito. Invece di addestrare modelli monolitici dall’inizio alla fine, i ricercatori stanno sempre più scomponendo il problema. Modelli più piccoli e specializzati vengono addestrati in modo indipendente e poi combinati.
Questo approccio è apparso per la prima volta in competizioni di ricerca e sfide sperimentali. Nel 2025, è maturato in tutorial completi e pipeline pronte per la produzione. Esempi pubblici, tra cui esperimenti di addestramento distribuito da Cohere, segnalano un più ampio spostamento.
Entro il 2026, vedremo un vero mercato per modelli linguistici più piccoli che le aziende possono possedere, comporre e adattare. Il centro di gravità si sposta da “chi ha il modello più grande” a “chi può assemblare il sistema più efficace”.
L’AI per la scienza esce dal laboratorio
L’AI per la scienza non è più solo una curiosità di ricerca. Nel 2025, workshop di fisica, biologia e scienza dei materiali alle principali conferenze hanno attirato folle inaspettate. Fondazioni ricche e donatori privati hanno iniziato a finanziare grandi sforzi scientifici di intelligenza artificiale. Sono emerse startup con un focus chiaro sulla scoperta di farmaci, progettazione di materiali e simulazione.
Nel 2026, la creazione di valore inizierà a mostrarsi. Se l’AI accelera la scoperta di un nuovo antibiotico, un trattamento per il cancro o un materiale innovativo, il ritorno supera il costo computazionale. Ciò rende l’AI scientifica una delle applicazioni più economicamente difendibili nel campo.
Tuttavia, l’AI non produrrà magicamente nuove leggi fisiche. AlphaFold è riuscito perché il problema era ben definito. La fisica manca ancora del suo momento Hilbert, una chiara definizione condivisa dei problemi fondamentali da risolvere. Definire i problemi giusti rimane un compito umano.
La prova di creazione di contenuto cresce in importanza
Una delle intuizioni più sorprendenti dell’ultimo anno è arrivata non dai tecnologi, ma dai sociologi.
Il più grande rischio dell’AI generativa non è la perdita di posti di lavoro. È l’erosione della prova. Prova di autore. Prova di lavoro. Prova di autenticità. Prova di umanità.
Mentre il contenuto generato dall’AI inonda ogni mezzo, le società chiederanno nuovi meccanismi per verificare chi ha creato cosa. È qui che le idee dalla crittografia e dalle blockchain rientrano nel discorso, non come asset speculativi, ma come infrastruttura per l’attribuzione e la verifica.
L’AI potrebbe diventare il catalizzatore che finalmente dà a questi sistemi uno scopo reale.
Gli agenti imparano attraverso gli strumenti, non il testo
I LLM dotati di strumenti sono fondamentalmente diversi dai chatbot. Lo strumento più importante per gli agenti oggi è il terminale.
Benchmark come Terminal Bench formalizzano questo spostamento. Gli agenti che possono interagire con le linee di comando, le API e gli ambienti imparano facendo. I laboratori di frontiera stanno ora spendendo centinaia di milioni di dollari per acquisire dati di attività ad alta abilità per addestrare questi agenti.
I set di dati sono privati e frammentati, il che ha un importante effetto collaterale. I modelli smetteranno di pensare allo stesso modo. Mentre i dati di addestramento divergono, i modelli di frontiera svilupperanno abilità e stili di ragionamento distinti. L’omogeneità era un artefatto temporaneo di dati condivisi. La diversità sta tornando.
Mentre gli assistenti di codifica come Claude Code e OpenAI Codex migliorano di giorno in giorno, noi esseri umani distilliamo la conoscenza da loro sotto forma di software. In effetti, ciò inizia ad assomigliare a ciò che alcuni chiamano distillerie di software, dove grandi modelli aiutano a progettare sistemi che vengono poi distillati in software più economico e specifico per le attività, che è più economico da eseguire su CPU anziché essere eseguito direttamente dai modelli di frontiera. Se la generazione di token diventa significativamente più economica e gli assistenti di codifica sono molto più sofisticati, il software stesso potrebbe diventare una cosa del passato, poiché gli esseri umani potrebbero dover essere nel ciclo. Questa idea sembra implausibile oggi, ma così sembrava l’idea che miliardi di transistor potessero un giorno stare dentro un telefono cellulare negli anni ’60.
Guardando avanti
Se il 2025 è stato l’anno in cui i LLM sono diventati economici, il 2026 sarà l’anno in cui l’intelligenza diventa strutturata.
I vincitori non saranno quelli con i modelli più grandi, ma quelli che costruiscono sistemi che ricordano, ragionano, attribuiscono e evolvono. L’AI non è più solo questione di capacità grezze, ma di architettura.
Ed è lì che si verificheranno i prossimi veri progressi.












