Connect with us

Leader di pensiero

L’aumento dell’appetito di potenza dell’AI: i data center sono pronti a tenere il passo?

mm

Mentre l’intelligenza artificiale (AI) procede a passo spedito, le sue richieste energetiche stanno mettendo a dura prova i data center fino al punto di rottura. Le tecnologie AI di prossima generazione come l’intelligenza artificiale generativa (genAI) non stanno solo trasformando le industrie – il loro consumo di energia sta influenzando quasi ogni componente del server dei dati – dalle CPU e dalla memoria agli acceleratori e alla rete.

Le applicazioni genAI, tra cui Microsoft’s Copilot e OpenAI’s ChatGPT, richiedono più energia che mai. Entro il 2027, l’addestramento e la manutenzione di questi sistemi AI da soli potrebbero consumare abbastanza elettricità per alimentare un piccolo paese per un intero anno. E la tendenza non si sta rallentando: negli ultimi dieci anni, le richieste di potenza per componenti come CPU, memoria e rete sono destinate a crescere del 160% entro il 2030, secondo un rapporto di Goldman Sachs.

L’utilizzo di grandi modelli linguistici consuma anche energia. Ad esempio, una query ChatGPT consuma circa dieci volte più di una ricerca Google tradizionale. Considerate le enormi richieste di potenza dell’AI, l’industria può gestire i propri rapidi progressi in modo sostenibile o contribuirà ulteriormente al consumo di energia globale? La recente ricerca di McKinsey mostra che circa il 70% della domanda in aumento nel mercato dei data center è rivolto a strutture in grado di gestire carichi di lavoro AI avanzati. Questo cambiamento sta fondamentalmente modificando il modo in cui vengono costruiti e gestiti i data center, poiché si adattano alle esigenze uniche di questi compiti genAI ad alta potenza.

“I data center tradizionali operano spesso con attrezzature obsolete e intensive in termini di energia e capacità fisse che lottano per adattarsi ai carichi di lavoro fluttuanti, portando a un notevole spreco di energia,” Mark Rydon, Chief Strategy Officer e co-fondatore della piattaforma di calcolo cloud distribuito Aethir, mi ha detto. “Le operazioni centralizzate creano spesso uno squilibrio tra la disponibilità delle risorse e le esigenze di consumo, portando l’industria a un punto critico in cui i progressi potrebbero rischiare di compromettere gli obiettivi ambientali man mano che le richieste di AI crescono.”

I leader del settore stanno ora affrontando la sfida a viso aperto, investendo in progetti più verdi e architetture efficienti in termini di energia per i data center. Gli sforzi vanno dall’adozione di fonti di energia rinnovabile alla creazione di sistemi di raffreddamento più efficienti che possano compensare le enormi quantità di calore generate dai carichi di lavoro genAI.

Rivoluzionare i data center per un futuro più verde

Lenovo ha recentemente introdotto il ThinkSystem N1380 Neptune, un grande passo avanti nella tecnologia di raffreddamento a liquido per i data center. L’azienda afferma che l’innovazione sta già consentendo alle organizzazioni di distribuire calcoli ad alta potenza per carichi di lavoro genAI con un consumo di energia significativamente inferiore – fino al 40% in meno di potenza nei data center. N1380 Neptune, sfrutta il nuovo hardware di NVIDIA, tra cui le GPU Blackwell e GB200, consentendo la gestione di modelli AI da un trilione di parametri in un impianto compatto. Lenovo afferma di voler aprire la strada a data center che possano funzionare con rack del server da 100KW+ senza la necessità di condizionamento d’aria dedicato.

“Abbiamo identificato una richiesta significativa dai nostri consumatori attuali: i data center consumano più potenza quando gestiscono carichi di lavoro AI a causa di architetture di raffreddamento obsolete e strutture tradizionali”, Robert Daigle, Global Director of AI at Lenovo, mi ha detto. “Per capire meglio, abbiamo collaborato con un cliente di calcolo ad alte prestazioni (HPC) per analizzare il suo consumo di potenza, il che ci ha portato alla conclusione che potevamo ridurre l’uso di energia del 40%.” Ha aggiunto che l’azienda ha tenuto conto di fattori come la potenza del ventilatore e il consumo di potenza delle unità di raffreddamento, confrontandoli con i sistemi standard disponibili tramite il servizio di valutazione del data center di Lenovo, per sviluppare la nuova architettura del data center in partenariato con Nvidia.

La società di consulenza tecnologica britannica AVEVA, afferma di utilizzare analisi predittive per identificare problemi con i compressori dei data center, motori, attrezzature HVAC, handler d’aria e altro.

“Abbiamo scoperto che è l’addestramento pre-trattamento dell’intelligenza artificiale generativa che consuma una quantità enorme di potenza”, Jim Chappell, Head of AI & Advanced Analytics di AVEVA, mi ha detto. “Attraverso i nostri sistemi di analisi predittiva basati sull’AI, miriamo a trovare problemi ben prima che qualsiasi sistema SCADA o di controllo, consentendo agli operatori dei data center di risolvere i problemi di attrezzature prima che diventino questioni importanti. Inoltre, abbiamo un assistente di visione AI che si integra nativamente con i nostri sistemi di controllo per aiutare a trovare altre tipologie di anomalie, tra cui hotspot di temperatura quando utilizzato con una telecamera a immagine termica.”

Nel frattempo, il calcolo decentralizzato per l’addestramento e lo sviluppo dell’AI attraverso le GPU sul cloud sta emergendo come un’alternativa. Il Rydon di Aethir ha spiegato che distribuendo i compiti computazionali su una rete più ampia e adattabile, l’uso di energia può essere ottimizzato, allineando la domanda di risorse con la disponibilità – portando a riduzioni sostanziali degli sprechi fin dall’inizio.

“Invece di affidarsi a grandi data center centralizzati, la nostra infrastruttura ‘Edge’ distribuisce i compiti computazionali ai nodi più vicini alla fonte dei dati, riducendo drasticamente il carico energetico per il trasferimento dei dati e riducendo la latenza”, ha detto Rydon. “La rete Aethir Edge minimizza la necessità di sistemi di raffreddamento ad alta potenza costanti, poiché i carichi di lavoro sono distribuiti in vari ambienti piuttosto che concentrati in un’unica posizione, aiutando a evitare i sistemi di raffreddamento energeticamente intensivi tipici dei data center centralizzati.”

Allo stesso modo, aziende come Amazon e Google stanno sperimentando con fonti di energia rinnovabile per gestire le esigenze di potenza crescenti nei loro data center. Microsoft, ad esempio, sta investendo molto in fonti di energia rinnovabile e tecnologie per il miglioramento dell’efficienza per ridurre il consumo di energia dei suoi data center. Google ha anche intrapreso passi per spostarsi verso un’energia libera da carbonio ed esplorare sistemi di raffreddamento che minimizzano l’uso di energia nei data center. “L’energia nucleare è probabilmente il percorso più veloce per i data center liberi da carbonio. I principali fornitori di data center come Microsoft, Amazon e Google stanno ora investendo pesantemente in questo tipo di generazione di energia per il futuro. Con i reattori modulari piccoli (SMR), la flessibilità e il tempo di produzione rendono questa un’opzione ancora più fattibile per raggiungere lo Zero Netto,” ha aggiunto AVEVA’s Chappell.

I data center e la sostenibilità dell’AI possono coesistere?

Ugur Tigli, CTO della piattaforma di infrastruttura AI MinIO, afferma che mentre speriamo in un futuro in cui l’AI possa progredire senza un grande aumento nel consumo di energia, ciò non è realistico nel breve termine. “Gli impatti a lungo termine sono più difficili da prevedere”, mi ha detto, “ma vedremo un cambiamento nella forza lavoro e l’AI aiuterà a migliorare il consumo di energia in generale.” Tigli ritiene che man mano che l’efficienza energetica diventa una priorità del mercato, vedremo una crescita del calcolo insieme a una diminuzione dell’uso di energia in altri settori, specialmente man mano che diventano più efficienti.

Ha anche sottolineato che c’è un crescente interesse tra i consumatori per soluzioni AI più verdi. “Immagina un’applicazione AI che funziona al 90% di efficienza ma utilizza solo la metà della potenza – è il tipo di innovazione che potrebbe davvero decollare”, ha aggiunto. È chiaro che il futuro dell’AI non riguarda solo l’innovazione – riguarda anche la sostenibilità dei data center. Che si tratti di sviluppare hardware più efficienti o modi più intelligenti per utilizzare le risorse, il modo in cui gestiamo il consumo di energia dell’AI influenzerà notevolmente la progettazione e l’operazione dei data center.

Rydon ha sottolineato l’importanza delle iniziative a livello di settore che si concentrano su progetti di data center sostenibili, carichi di lavoro AI efficienti in termini di energia e condivisione di risorse aperte. “Questi sono passi cruciali verso operazioni più verdi”, ha detto. “Le aziende che utilizzano l’AI dovrebbero collaborare con le aziende tecnologiche per creare soluzioni che riducono l’impatto ambientale. Lavorando insieme, possiamo orientare l’AI verso un futuro più sostenibile.”

Victor Dey è un editore tecnico e scrittore che copre A.I., crypto, data science, metaverse e cybersecurity all'interno del settore aziendale. Vanta mezza decade di esperienza nei media e nell'AI lavorando per noti outlet mediatici come VentureBeat, Metaverse Post, Observer e altri. Victor ha guidato studenti fondatori in programmi di accelerazione presso università leader come l'Università di Oxford e l'Università della California meridionale, e detiene un Master in data science e analisi.