Intelligenza Artificiale
Google ha appena rilasciato numeri reali sull'uso dell'energia da parte dell'intelligenza artificiale, e non sono quelli che pensi

Tutti parlano dell'enorme impatto energetico dell'intelligenza artificiale. Avrete letto titoli come: "ChatGPT consuma la stessa quantità di elettricità di un piccolo Paese" o "Ogni query di intelligenza artificiale consuma una bottiglia d'acqua".
Google appena pubblicati i dati effettivi dai loro sistemi di produzione, e i numeri raccontano una storia completamente diversa.
Il costo energetico reale della tua query di intelligenza artificiale
Ecco cosa ha scoperto Google: la mediana Gemini Il prompt di testo consuma 0.24 wattora di energia. È meno elettricità che guardare la TV per nove secondi. Consumo d'acqua? Cinque gocce. Non cinque bicchieri. Cinque gocce.
Il divario tra la percezione pubblica e la realtà è enorme. Stime precedenti indicavano che i prompt di intelligenza artificiale consumavano dai 10 ai 50 millilitri di acqua per query. Alcuni studi hanno suggerito un consumo energetico 30 volte superiore a quello misurato da Google in fase di produzione.
Perché questa enorme differenza? Perché finora nessuno aveva misurato sistemi reali su larga scala. Studi accademici eseguono test isolati su hardware sottoutilizzato. In pratica, misurano l'efficienza di un'auto mentre è ferma al minimo nel vialetto.
Il miglioramento 44x
Google ha ridotto le emissioni di carbonio della sua intelligenza artificiale di 44 volte in un anno. Non del 44%, bensì di 44 volte.
Non si tratta di un miglioramento teorico in laboratorio. Sta avvenendo proprio ora sui sistemi che gestiscono miliardi di query. Questo risultato è stato ottenuto grazie a una combinazione di ottimizzazione del software (miglioramento di 33 volte) e fonti energetiche più pulite (miglioramento di 1.4 volte).
La maggior parte degli studi si concentra solo sui chip di intelligenza artificiale che eseguono i calcoli. È come misurare il consumo energetico di un ristorante contando solo i forni, ignorando frigoriferi, luci e sistema di riscaldamento, ventilazione e condizionamento dell'aria.
I dati di Google mostrano il quadro completo: sì, gli acceleratori di intelligenza artificiale consumano il 58% dell'energia. Ma servono anche processori e memoria standard (24%), capacità di backup per l'affidabilità (10%) e sistemi di raffreddamento (8%). Se si omette uno qualsiasi di questi fattori nella misurazione, i numeri diventano praticamente insignificanti.
Quando Google ha applicato la metodologia ristretta utilizzata da tutti gli altri, ovvero misurando semplicemente i chip di intelligenza artificiale su macchine completamente utilizzate, il suo consumo energetico è sceso a 0.10 wattora. Il sistema di produzione reale consuma 2.4 volte più energia perché i sistemi reali necessitano di ridondanza, raffreddamento e infrastrutture di supporto.
Cosa significa realmente questo per il futuro dell'intelligenza artificiale
La narrazione sul consumo energetico dell'IA necessita di una verifica della realtà . Sì, l'IA consuma energia. Ma i sistemi opportunamente ottimizzati sono molto più efficienti di quanto suggeriscano gli scenari catastrofici.
Il contesto è importante. Quegli 0.24 wattora per query? Gli americani consumano in media circa 30 kilowattora di elettricità al giorno. Bisognerebbe eseguire 125,000 query di intelligenza artificiale per ottenere una corrispondenza con il consumo energetico giornaliero di una famiglia.
La questione del consumo di acqua è ancora più drammatica. Quelle cinque gocce d'acqua per ogni richiesta? Ne consumi di più nel primo secondo in cui ti lavi le mani.
Lo stack di ottimizzazione
Google non sta ottenendo questi numeri attraverso una singola svolta. Sono ottimizzazione dell'accumulo su ogni livello del sistema.
Stanno eseguendo modelli "bozza" più piccoli che abbozzano le risposte, per poi verificarle con modelli più grandi solo quando necessario. Stanno raggruppando migliaia di query per una maggiore efficienza. Stanno utilizzando chip personalizzati progettati specificamente per carichi di lavoro di intelligenza artificiale, 30 volte più efficienti rispetto alla prima generazione.
I loro data center funzionano con un overhead di appena il 9% superiore al minimo teorico, praticamente il massimo dell'efficienza possibile. E sono sempre più alimentati da energia pulita, riducendo le emissioni anche quando il consumo di elettricità aumenta.
Conclusione
La verità è che i sistemi di intelligenza artificiale efficienti possono essere notevolmente più sostenibili di quanto comunemente si temesse, ma ciò richiede un'ottimizzazione completa che la maggior parte del settore non ha ancora raggiunto.
Questo funziona solo quando le aziende ottimizzano effettivamente l'intero stack e misurano correttamente. Le aziende che trattano l'infrastruttura di intelligenza artificiale come un ripensamento, utilizzando sistemi inefficienti su reti elettriche inquinanti? Sono loro a creare i problemi che preoccupano tutti.
Il divario tra sistemi di intelligenza artificiale efficienti e inefficienti è abissale. E al momento, la maggior parte del settore utilizza ancora la versione inefficiente.