Tankeledere
AIs økende appetitt på kraft: Er datasentre klare til å følge med?

Mens kunstig intelligens (AI) raser fremover, anstrenger energibehovet datasentre til bristepunktet. Neste generasjons AI-teknologier som generativ AI (genAI) transformerer ikke bare bransjer – energiforbruket deres påvirker nesten alle dataserverkomponenter – fra CPUer og minne til akseleratorer og nettverk.
GenAI-applikasjoner, inkludert Microsofts Copilot og OpenAIs ChatGPT, krever mer energi enn noen gang før. Innen 2027 kan opplæring og vedlikehold av disse AI-systemene alene forbruke nok elektrisitet for å drive et lite land i et helt år. Og trenden avtar ikke: I løpet av det siste tiåret er strømbehovet for komponenter som CPUer, minne og nettverk anslått å vokse 160 % innen 2030, ifølge en Goldman Sachs rapportere.
Bruken av store språkmodeller bruker også energi. For eksempel en ChatGPT-spørring bruker omtrent ti ganger et tradisjonelt Google-søk. Gitt AIs enorme strømbehov, kan bransjens raske fremskritt håndteres bærekraftig, eller vil de bidra ytterligere til det globale energiforbruket? McKinseys nylige forskning viser at rundt 70 % av den økende etterspørselen i datasentermarkedet er rettet mot fasiliteter utstyrt for å håndtere avanserte AI-arbeidsmengder. Dette skiftet endrer fundamentalt hvordan datasentre bygges og drives, ettersom de tilpasser seg de unike kravene til disse kraftige genAI-oppgavene.
"Tradisjonelle datasentre opererer ofte med aldrende, energikrevende utstyr og fast kapasitet som sliter med å tilpasse seg varierende arbeidsbelastning, noe som fører til betydelig energisløsing," Mark Rydon, Chief Strategy Officer og medgründer av distribuert cloud compute-plattform Aethir, fortalte meg. "Sentraliserte operasjoner skaper ofte en ubalanse mellom ressurstilgjengelighet og forbruksbehov, noe som fører industrien til et kritisk tidspunkt der fremskritt kan risikere å undergrave miljømålene ettersom AI-drevne krav vokser."
Bransjeledere tar nå utfordringen på strak arm, og investerer i grønnere design og energieffektive arkitekturer for datasentre. Arbeidet spenner fra å ta i bruk fornybare energikilder til å lage mer effektive kjølesystemer som kan kompensere for de enorme varmemengdene som genereres av genAI-arbeidsbelastninger.
Revolusjonerer datasentre for en grønnere fremtid
Lenovo introduserte nylig ThinkSystem N1380 Neptune, et sprang fremover innen væskekjølingsteknologi for datasentre. Selskapet hevder at innovasjonen allerede gjør organisasjoner i stand til å distribuere kraftig databehandling for genAI-arbeidsbelastninger med betydelig lavere energibruk – opptil 40 % mindre strøm i datasentre. N1380 Neptune, utnytter NVIDIAs nyeste maskinvare, inkludert Blackwell og GB200 GPUer, som muliggjør håndtering av billioner-parameter AI-modeller i et kompakt oppsett. Lenovo sa at det har som mål å bane vei for datasentre som kan betjene 100KW+ serverrack uten behov for dedikert klimaanlegg.
"Vi identifiserte et betydelig krav fra våre nåværende forbrukere: datasentre bruker mer strøm når de håndterer AI-arbeidsbelastninger på grunn av utdaterte kjølearkitekturer og tradisjonelle strukturelle rammer," Robert Daigle, global direktør for AI hos Lenovo, fortalte meg. "For å forstå dette bedre, samarbeidet vi med en høyytelses databehandlingskunde (HPC) for å analysere strømforbruket deres, noe som førte oss til konklusjonen at vi kunne redusere energibruken med 40 %." Han la til at selskapet tok hensyn til faktorer som viftekraft og strømforbruket til kjøleenheter, sammenlignet disse med standardsystemer tilgjengelig gjennom Lenovos datasentervurderingstjeneste, for å utvikle den nye datasenterarkitekturen i samarbeid med Nvidia.
UK-basert informasjonsteknologikonsulentselskap JEG HADDE, sa at den bruker prediktiv analyse for å identifisere problemer med datasenterkompressorer, motorer, HVAC-utstyr, luftbehandlere og mer.
«Vi fant ut at det er fortreningen av generativ AI som bruker enormt mye strøm» Jim Chappell, AVEVAs leder for AI og avansert analyse, fortalte meg. "Gjennom våre prediktive AI-drevne systemer har vi som mål å finne problemer i god tid før ethvert SCADA- eller kontrollsystem, slik at datasenteroperatører kan fikse utstyrsproblemer før de blir store problemer. I tillegg har vi en Vision AI Assistant som integreres med kontrollsystemene våre for å hjelpe til med å finne andre typer avvik, inkludert temperatur-hot spots når den brukes med et varmebildekamera.»
I mellomtiden dukker desentralisert databehandling for AI-opplæring og utvikling gjennom GPUer over skyen opp som et alternativ. Aethirs rydon forklart at ved å distribuere beregningsoppgaver på tvers av et bredere, mer tilpasningsdyktig nettverk, kan energibruken optimaliseres ved å tilpasse ressursbehovet med tilgjengelighet – noe som fører til betydelige reduksjoner i avfall fra begynnelsen.
"I stedet for å stole på store, sentraliserte datasentre, sprer Edge-infrastrukturen vår beregningsoppgaver til noder nærmere datakilden, noe som drastisk reduserer energibelastningen for dataoverføring og senker ventetiden," sa Rydon. "Aethir Edge-nettverket minimerer behovet for konstant kjøling med høy effekt, ettersom arbeidsbelastninger er fordelt på tvers av ulike miljøer i stedet for konsentrert på ett enkelt sted, noe som bidrar til å unngå energikrevende kjølesystemer som er typiske for sentrale datasentre."
Likeledes selskaper inkl Amazon og Google eksperimenterer med fornybare energikilder for å håndtere økende strømbehov i datasentrene sine. Microsoft, for eksempel, investerer tungt i fornybare energikilder og effektivitetsfremmende teknologier for å redusere datasenterets energiforbruk. Google har også tatt skritt for å gå over til karbonfri energi og utforske kjølesystemer som minimerer strømforbruket i datasentre. «Atomkraft er sannsynligvis den raskeste veien til karbonfrie datasentre. Store datasenterleverandører som Microsoft, Amazon og Google er nå investerer tungt i denne typen kraftproduksjon for fremtiden. Med små modulære reaktorer (SMR) gjør fleksibiliteten og tiden til produksjon dette til et enda mer levedyktig alternativ for å oppnå Net Zero. la til AVEVAs Chappell.
Kan AI og datasenters bærekraft sameksistere?
Ugur Tigli, CTO ved AI-infrastrukturplattformen MinIO, sier at selv om vi håper på en fremtid der AI kan utvikle seg uten en enorm økning i energiforbruket, er det rett og slett ikke realistisk på kort sikt. "Langsiktige konsekvenser er vanskeligere å forutsi," han fortalte meg, "men vi vil se et skifte i arbeidsstyrken, og AI vil bidra til å forbedre energiforbruket over hele linjen." Tigli mener at når energieffektivitet blir en markedsprioritet, vil vi se vekst i databehandling sammen med nedgang i energibruk i andre sektorer, spesielt ettersom de blir mer effektive.
Han påpekte også at det er en økende interesse blant forbrukere for grønnere AI-løsninger. "Se for deg en AI-applikasjon som yter 90 % effektivitet, men som bare bruker halvparten av kraften - det er den typen innovasjon som virkelig kan ta av," la han til. Det er tydelig at fremtiden til AI ikke bare handler om innovasjon – det handler også om bærekraft i datasentre. Enten det er gjennom utvikling av mer effektiv maskinvare eller smartere måter å bruke ressurser på, vil måten vi håndterer AIs energiforbruk i stor grad påvirke design og drift av datasentre.
rydon understreket viktigheten av bransjeomfattende initiativer som fokuserer på bærekraftig datasenterdesign, energieffektiv AI-arbeidsbelastning og åpen ressursdeling. "Dette er avgjørende skritt mot grønnere operasjoner," sa han. "Bedrifter som bruker AI bør samarbeide med teknologiselskaper for å lage løsninger som reduserer miljøpåvirkningen. Ved å jobbe sammen kan vi styre AI mot en mer bærekraftig fremtid."