Leader di pensiero
L’esplosione dell’AI ha raggiunto un decisivo punto di mezzo: cosa le imprese devono sapere

La scuola media non è mai stata il periodo migliore per nessuno – ma tutti abbiamo dovuto superarla, con i suoi dolori di crescita e tutto, per raggiungere una versione migliore e più matura di noi stessi.
L’attuale esplosione dell’AI sta entrando in una sorta di sua propia adolescenza difficile, qualcosa che gli esperti chiamano il messy middle tra adozione e maturità. L’initial hype è svanito, e adesso, le organizzazioni si stanno concentrando sul rendere l’AI veramente operativa. Ma l’AI sta crescendo in un momento difficile. Le previsioni sono tutte fuori controllo, lo scetticismo è alto tra le imprese e i consumatori, e la discussione su una possibile bolla dell’AI ha i leader delle imprese sull’orlo, in attesa del temuto pop.
In questo momento decisivo, le organizzazioni devono distinguere il segnale dal rumore – sia che stiano spostando i loro sforzi dall’esperimentazione all’applicazione pratica, o che stiano scalando l’applicazione pratica all’ubiquità operativa. Ciò richiede di concentrarsi su fattori tangibili che possono controllare, come la loro infrastruttura e la prontezza dei dati; misurare i risultati; e costruire le fondamenta per la scala.
L’approccio infrastructure-first
La vera prontezza per l’AI richiede un’infrastruttura adeguata per supportare il deploy sostenibile dei carichi di lavoro dell’AI. Naturalmente, l’AI ha aumentato la domanda di servizi cloud: la spesa per il cloud è prevista aumentare del 40% quest’anno, con l’infrastruttura che rappresenta l’elemento più costoso del budget, e nuovi data center stanno sorgendo su ogni continente per soddisfare la crescente domanda di calcolo dell’AI. A questo punto di inflessione dell’AI, le scelte di infrastruttura sono esistenziali. L’infrastruttura definisce cosa è sicuro, cosa è possibile e cosa beneficerà realmente l’impresa, invece di creare un drenaggio di risorse.
Un’infrastruttura sostenibile è definita da più di solo costi e potenza di calcolo totale. Quando si determina dove e come ospitare i carichi di lavoro dell’AI, le organizzazioni devono considerare questioni di efficienza delle risorse, sicurezza, visibilità e prezzo-prestazione complessivo. L’infrastruttura dell’AI non può essere un investimento una tantum, ma un processo in movimento, in grado di evolversi con le esigenze di ogni progetto.
È una netta deviazione dagli approcci storici alla spesa per il cloud. Prima dell’attuale corsa all’AI, le organizzazioni spesso dipendevano da un singolo fornitore di servizi cloud – di solito un hyperscaler – per ospitare le loro operazioni basate sul cloud. Ora, la complessità e la varietà dei carichi di lavoro dell’AI stanno sfidando questo modello, specialmente mentre le imprese si muovono verso casi d’uso più pratici, e alternative cloud emergono per soddisfare la domanda.
Le iniziative moderne dell’AI richiedono una notevole potenza di calcolo, che i Big 3 sono ben equipaggiati per fornire. Le crepe iniziano a mostrarsi quando tutta questa potenza diventa troppo. I contratti dei hyperscaler possono essere proibitivi, gonfiati con aggiunte non necessarie, e potrebbero non offrire la sicurezza dei dati e la residenza richiesta per progetti altamente sensibili.
Invece di legare le loro operazioni cloud a un singolo fornitore, le imprese possono capitalizzare una classe crescente di alternative per comporre i propri stack su diversi fornitori, tipi di GPU e setup di cloud pubblico/privato in base alle loro esigenze specifiche. In questo modo, non pagano per funzionalità che non necessitano, mentre contemporaneamente personalizzano i loro cloud per ciò che hanno bisogno.
Un approccio infrastructure-first per raggiungere la maturità dell’AI consiste nel creare una solida base per la scala, che massimizzi l’efficienza e l’utilità senza sacrificare la potenza.
Dall’esperimentazione all’applicazione
Negli ultimi anni, le imprese di tutto il mondo hanno sperimentato come inserire l’AI nelle loro operazioni. Guidate dalla curiosità e da una buona dose di hype, hanno spinto i confini dell’innovazione, sbloccato nuove possibilità di efficienza e elevato il potenziale di innumerevoli strumenti e modelli open-source. Hanno anche corso a testa bassa nella realtà, imparando che la filosofia “muoversi velocemente e rompere le cose” di Silicon Valley non è sempre il modo giusto, specialmente quando si tratta di una tecnologia potente come l’AI.
Ora, mentre le imprese emergono da questa fase di esperimentazione, il fallimento non è un’opzione. L’accuratezza è critica. Le prestazioni non possono essere lente. Se le imprese vogliono ricostruire le funzioni aziendali di base su una struttura AI, devono raddoppiare gli sforzi sulla parte “noiosa” che porta l’AI da un esperimento creativo a un moltiplicatore di forza, compresa:
- Sicurezza e privacy dei dati: Molti modelli AI utilizzano dati personali e aziendali sensibili per funzionare efficacemente. Le organizzazioni devono assicurarsi che i loro dati siano ospitati in modo sicuro, senza il rischio di riproduzione non autorizzata o esposizione “dark AI”.
- Gestione del ciclo di vita del modello: I modelli devono essere accurati, aggiornati e riaddestrati regolarmente per supportare le funzioni aziendali critiche.
- Coerenza delle prestazioni: Indipendentemente dal deploy di modelli per uso interno o in operazioni rivolte ai clienti, assicurarsi della coerenza delle prestazioni è critico per l’efficienza e la facilità d’uso. Molti problemi di prestazione comuni, come quelli legati alla latenza e al downtime, vengono risolti a livello di infrastruttura.
Al momento, solo il 37% delle organizzazioni sta deployando nuovi modelli generativi su base mensile, settimanale o giornaliera. Mentre più organizzazioni si spostano nella fase di applicazione, quella percentuale aumenterà drasticamente, creando una maggiore domanda di potenza di calcolo – ma anche di infrastrutture personalizzate per modelli specifici. Un modello “leggero” non necessita di una fondazione a livello di hyperscaler, ma se utilizza informazioni sensibili, potrebbe necessitare di quel livello di sicurezza. È qui che entrano in gioco i cloud personalizzati – e perché l’infrastruttura dovrebbe essere la considerazione primaria durante un cambio di paradigma dell’AI in un’impresa.
Dall’applicazione alla scala
Per le imprese più avanti nella curva di maturità, l’applicazione pratica dell’AI è già parte della loro routine quotidiana. Ora, stanno cercando di scalare queste applicazioni per creare ancora più valore e far evolvere completamente la loro impresa.
La pressione è alta, e i vantaggi sono chiari: l’81% delle organizzazioni al livello più alto di maturità dell’AI ha riportato migliori risultati finanziari nell’ultimo anno. Questa è la fase in cui le applicazioni AI subiscono il loro più grande test di stress. Possono superare il test in un ambiente contenuto, ma possono gestire più dati? Funzionare in nuove regioni? E forse la domanda più importante: possono produrre risultati significativi?
La scala è questione di crescita, ma in alcuni casi, meno è più. Le imprese in questa fase dovrebbero considerare se i modelli linguistici di piccole dimensioni (SLM) possano funzionare meglio dei modelli linguistici di grandi dimensioni (LLM) polivalenti. Le iniziative AI hanno più successo quando sono legate a problemi aziendali reali e possono produrre risultati misurabili.
Un modello simile si verifica nell’applicazione e nella scala degli agenti AI – la prossima frontiera dell’AI autonoma. Gli agenti che eseguono compiti specifici del dominio, informati da un set di dati altamente focalizzato e mantenuto con costanza, sono quelli che stanno realmente avendo un impatto nell’impresa. Tuttavia, gli agenti specializzati richiedono comunque una notevole potenza di calcolo, anche se non quanto un copilota onnicomprensivo. Dare priorità all’infrastruttura fin dall’inizio consentirà alle organizzazioni di estrarre un reale ROI dalle loro iniziative AI agentiche senza esaurire i loro budget cloud.
Innovazione con impatto
La “corsa” all’AI è meno una corsa che una ristrutturazione: se stiamo ricostruendo l’impresa, vogliamo farlo su una solida base – altrimenti, i muri inevitabilmente crollano. Le imprese devono prendersi il tempo per essere attente all’infrastruttura, assicurarsi della salvaguardia dei dati, gestire attentamente il ciclo di vita del modello, monitorare le prestazioni e raccogliere informazioni e apportare aggiustamenti. La pazienza e la persistenza sono fondamentali per creare soluzioni che funzionano realmente, rimangono sicure e mantengono le prestazioni coerenti.
La novità del ciclo di hype dell’AI potrebbe essere in declino, ma le organizzazioni possono superare gli anni di mezzo turbolenti dell’AI energizzando i loro team con ciò che conta di più: i risultati.












