Seguici sui social

2026: l'anno in cui i costi dell'intelligenza artificiale costringeranno ogni azienda a ripensare la propria strategia

Leader del pensiero

2026: l'anno in cui i costi dell'intelligenza artificiale costringeranno ogni azienda a ripensare la propria strategia

mm

Negli ultimi anni, ho visto in prima persona la rapidità con cui il panorama dei dati e dell'intelligenza artificiale sta cambiando, in particolare mentre le aziende lavorano per modernizzare architetture complesse, continuando a offrire prestazioni affidabili su scala globale. La pressione sui leader sta crescendo, mentre le aspettative sull'intelligenza artificiale si accelerano e il divario tra ciò che le organizzazioni vogliono ottenere e ciò che la loro infrastruttura può realisticamente supportare si allarga. Questa tensione sta rimodellando le priorità del settore e preparando il terreno per ciò che verrà. Sulla base della mia competenza nel settore e dell'esperienza maturata guidando Teradata attraverso molteplici trasformazioni, ecco le mie tre previsioni su cosa possiamo aspettarci nel 2026.

1. La svolta nella produzione di intelligenza artificiale agentica

Il 2026 segnerà l'anno in cui le aziende attraverseranno finalmente il divario tra i progetti pilota e l'intelligenza artificiale agentiva su scala produttiva. Mentre il 2025 ha visto il paradosso dell'intelligenza artificiale, con Il 92% delle aziende aumenta gli investimenti in intelligenza artificiale, ma solo l'1% raggiunge la maturitàIl 2026 separerà i vincitori dai perdenti. Il collo di bottiglia nella produzione di IA non è mai stato la creazione di modelli o la generazione di idee; si è trattato di implementare l'IA su scala aziendale con fiducia, contesto ed efficienza economica.

Il prossimo anno, assisteremo alla diffusione delle interazioni agente-agente in almeno uno dei principali settori B2B, che si tratti di approvvigionamento, supply chain o servizio clienti. Le organizzazioni che si preparano alle enormi richieste di elaborazione dell'IA agentica saranno così avanti che per i concorrenti sarà quasi impossibile recuperare terreno. A differenza delle applicazioni tradizionali che eseguono poche query al minuto, i sistemi di IA agentica con un potenziale di query sempre attivo 24 ore su 24, 7 giorni su 7, generano 25 volte più richieste di database e consumano da 50 a 100 volte le risorse di elaborazione necessarie per elaborare problemi, raccogliere contesto ed eseguire attività.

Questi non sono solo numeri più grandi; rappresentano un cambiamento fondamentale nel modo in cui le infrastrutture aziendali devono funzionare. La sfida infrastrutturale è profonda e richiede architetture di elaborazione parallele massicce – un approccio di elaborazione che utilizza numerosi processori per eseguire calcoli simultaneamente su diverse parti di un ampio set di dati – in grado di gestire carichi di lavoro misti su larga scala. Man mano che le aziende distribuiscono potenzialmente migliaia di questi agenti che valutano milioni di relazioni su migliaia di tabelle per prendere una singola decisione, anche i millisecondi inizieranno a contare. Non stiamo più parlando di assistenti AI isolati; stiamo parlando di interi ecosistemi di agenti specializzati che lavorano insieme, ognuno dei quali interroga i dati, valuta le opzioni e si coordina con altri agenti in tempo reale. Le aziende che capiranno come gestire questo volume in modo efficiente con costi prevedibili saranno quelle che domineranno, mentre quelle colte di sorpresa dall'aumento vertiginoso dei costi infrastrutturali saranno in difficoltà.

Entro la fine del 2026, mi aspetto storie di ROI quantificabili, misurate in centinaia di milioni, non solo proiezioni ottimistiche. Le prime implementazioni in produzione dimostreranno un valore aziendale concreto che va oltre l'aumento della produttività, fino a una vera e propria trasformazione aziendale. Non si tratterà di semplici chatbot o riepilogatori di documenti; saranno sistemi intelligenti che cambieranno radicalmente il modo in cui il lavoro viene svolto in intere organizzazioni.

2. La guerra delle piattaforme di conoscenza: quando i millisecondi diventano milioni

Nel 2026, le aziende scopriranno che i loro agenti di intelligenza artificiale sono intelligenti solo quanto la loro infrastruttura dati è veloce. Quando un sistema di intelligenza artificiale esegue 10,000 query per rispondere a una singola domanda del cliente, la differenza tra un tempo di risposta di 100 ms e uno di 10 ms non riguarda solo l'esperienza utente: è la differenza tra una spesa infrastrutturale mensile di 50,000 dollari e una di 5 milioni di dollari.

I dati del settore supportano questo cambiamento. FutureScape 2026 di IDC prevede che entro il 2028 il 45% delle interazioni tra prodotti e servizi IT utilizzerà agenti come interfaccia principale per le operazioni in corso. Sondaggio McKinsey sullo stato dell'intelligenza artificiale nel 2025 ha rivelato che laddove il potenziale di penetrazione dell'IA è elevato, i sistemi agentici stanno rapidamente trasformando il modo in cui le organizzazioni utilizzano la tecnologia. Le prime implementazioni in produzione rivelano che i flussi di lavoro agentici generano 25 volte più query di database rispetto alle applicazioni tradizionali. Una singola interazione con il servizio clienti basata sull'IA, che in precedenza richiedeva tre chiamate API, ora attiva migliaia di query contestuali mentre l'agente ragiona sulle opzioni, convalida le informazioni e sintetizza le risposte.

I tradizionali data warehouse cloud ottimizzati per l'analisi batch cederanno di fronte a queste esigenze di agentic in tempo reale. La natura always-on delle piattaforme agentic è in netto conflitto con gli ambienti di elaborazione dinamici progettati per accelerare per carichi di lavoro pianificati e rallentare per risparmiare sui costi. L'iniziativa NANDA del MIT ha scoperto che il 95% dei programmi pilota di intelligenza artificiale non riesce a produrre un impatto misurabile sul conto economico, non a causa della qualità del modello, ma a causa di un "gap di apprendimento" in cui i sistemi non riescono ad adattarsi con sufficiente rapidità ai flussi di lavoro aziendali. Quando la latenza dell'infrastruttura aggrava questo gap, anche gli agenti più sofisticati diventano inefficaci. Le organizzazioni si renderanno conto che l'ottimizzazione delle query, un tempo considerata un problema risolto e relegato agli amministratori di database, è diventata il collo di bottiglia critico nel ROI dell'intelligenza artificiale.

È qui che le piattaforme basate su un'architettura di elaborazione parallela massiva incontrano il futuro dell'intelligenza artificiale. Sistemi progettati da zero per carichi di lavoro misti (gestendo query operative e carichi di lavoro analitici simultaneamente senza degrado delle prestazioni) separeranno i vincitori da coloro che restano indietro. Quando ogni millisecondo di prestazioni delle query ha un impatto diretto sull'intelligenza degli agenti, sulla qualità delle risposte e sui risultati aziendali, le decisioni infrastrutturali diventano imperativi strategici.

Stiamo già assistendo a questo fenomeno con i clienti che utilizzano agenti di intelligenza artificiale in produzione. Sono rimasti scioccati nello scoprire che il loro warehouse cloud "moderno" aggiunge 2-3 secondi a ogni interazione con un agente, rendendo l'intelligenza artificiale lenta e poco reattiva. Moltiplicando questa latenza per migliaia di interazioni giornaliere, l'esperienza utente diventa insostenibile. Entro la fine del 2026, le prestazioni delle query diventeranno il criterio di valutazione primario per le decisioni relative all'infrastruttura di intelligenza artificiale, sostituendo i costi di storage e la scalabilità come principali preoccupazioni.

Le dinamiche di potere cambiano radicalmente quando le aziende possono implementare l'intelligenza artificiale direttamente su un'infrastruttura dati ottimizzata con decenni di esperienza nell'analisi delle decisioni. Invece di essere vincolate dalle architetture dei fornitori che non riescono a gestire volumi di query agenti, hanno la flessibilità di innovare alla velocità dell'intelligenza artificiale, offrire esperienze di agenti reattive ed evitare gli incubi prestazionali derivanti da infrastrutture non adatte al carico di lavoro.

Questo cambiamento imporrà una resa dei conti nel panorama delle piattaforme dati. I fornitori che sopravviveranno saranno quelli in grado di dimostrare che le loro architetture sono state costruite per questo momento: tempi di risposta alle query inferiori al secondo su larga scala non sono una caratteristica, ma il fondamento dell'automazione intelligente.

3. Il Rinascimento Ibrido: la sovranità dei dati diventa strategica

Il pendolo torna a oscillare verso gli ambienti ibridi, man mano che le aziende si rendono conto che non si tratta più solo di scegliere tra cloud e on-premise. Si tratta di operare efficacemente su entrambi per soddisfare le diverse esigenze aziendali. Nel 2026, la sovranità dei dati si rivelerà non solo una questione di conformità, ma anche di vantaggio competitivo strategico e, sempre più, di sopravvivenza economica.

Gli aspetti economici sono innegabili: poiché l'intelligenza artificiale agentiva determina volumi di query esponenziali, i costi del cloud sono destinati a salire alle stelle. Gartner lo prevede entro il 2030Le aziende che non riusciranno a ottimizzare l'ambiente di elaborazione AI sottostante pagheranno oltre il 50% in più rispetto a quelle che lo faranno, mentre il 50% delle risorse di elaborazione cloud sarà dedicato ai carichi di lavoro AI entro il 2029, rispetto a meno del 10% attuale – un aumento di cinque volte dei carichi di lavoro cloud correlati all'AI. Le organizzazioni stanno scoprendo che l'ibrido non è un retaggio del passato; è la strada pragmatica da seguire. Stiamo assistendo a una rinascita delle implementazioni ibride che riflette una crescente comprensione di come le aziende possano ottimizzare i costi sfruttando strategicamente le funzionalità sia on-premise che cloud.

I calcoli sono convincenti. Quando si gestiscono migliaia di agenti di intelligenza artificiale che eseguono milioni di query al giorno, la differenza tra i costi del cloud e quelli on-premise diventa sbalorditiva. Le organizzazioni intelligenti stanno già modellando questi scenari e comprendendo che l'implementazione ibrida strategica non è solo un optional, ma è essenziale per operazioni di intelligenza artificiale sostenibili. Man mano che l'intelligenza artificiale diventa l'elemento distintivo, le organizzazioni capiranno che le loro strategie sui dati e la loro conoscenza del settore sono troppo preziose per essere affidate completamente ai provider di cloud pubblico. Vorranno controllare e possedere i propri dati, sapere dove si trovano geograficamente e gestire gli aspetti economici dell'intelligenza artificiale su larga scala.

Vedremo questa tendenza più pronunciata a livello internazionale e in settori regolamentati come i servizi finanziari e l'assistenza sanitaria, ma l'imperativo dei costi guiderà l'adozione in tutti i settori. Le aziende che offriranno una vera flessibilità di implementazione, con dati, elaborazione, modelli, carichi di lavoro, risultati ed esperienze coerenti in ambienti ibridi, saranno quelle che vinceranno. Le organizzazioni richiederanno la possibilità di eseguire funzionalità di intelligenza artificiale all'avanguardia, inclusi modelli linguistici ed elaborazione vettoriale, dietro i propri firewall, mantenendo al contempo la stessa velocità di innovazione dei concorrenti cloud-native senza spendere una fortuna.

Il futuro appartiene a piattaforme che consentono all'IA di accelerare e scalare i dati ovunque risiedano, sia nel cloud pubblico, on-premise o nel cloud privato, consentendo alle organizzazioni di prendere decisioni economicamente razionali sul posizionamento dei carichi di lavoro, mentre l'IA agentica rimodella le strutture dei costi. Non si tratta di tornare a vecchi modi di pensare; si tratta di adottare un approccio più sofisticato che tratta l'infrastruttura come un portafoglio strategico in cui diversi carichi di lavoro vengono eseguiti nell'ambiente più appropriato in base ai requisiti di prestazioni, costi, sicurezza e conformità.

Il 2026 sarà l'anno in cui l'intelligenza artificiale agentica passerà dall'essere un termine di moda nei consigli di amministrazione a una realtà operativa, rimodellando radicalmente il modo in cui le aziende competono, sviluppano software e gestiscono la propria infrastruttura. Le aziende che padroneggeranno l'implementazione su scala produttiva, manterranno il controllo dei propri dati e del contesto e architetteranno la flessibilità ibrida otterranno vantaggi che diventeranno quasi impossibili da superare.

Steve McMillan è il Presidente e Amministratore Delegato di Teradata, vantando oltre due decenni di leadership tecnologica e una comprovata esperienza nella trasformazione dei servizi aziendali in attività cloud-first e ad alta crescita.