Tankeledere
AI’s voksende appetit på strøm: Er datacentre klar til at følge med?
Da kunstig intelligens (AI) skynder sig fremad, belaster dens energibehov datacentre til bristepunktet. Next-gen AI-teknologier som generative AI (genAI) transformerer ikke kun brancher – deres energiforbrug påvirker næsten hver enkelt data-server-komponent, fra CPU’er og hukommelse til acceleratorer og netværk.
GenAI-applikationer, herunder Microsofts Copilot og OpenAI’s ChatGPT, kræver mere energi end nogensinde før. Inden 2027 kunne træning og vedligeholdelse af disse AI-systemer alene forbruge nok elektricitet til at strømforsyne et lille land i et helt år. Og trenden er ikke langsommere: Over de sidste 10 år estimeres energibehovet for komponenter som CPU’er, hukommelse og netværk til at være vokset med 160% inden 2030, ifølge en Goldman Sachs rapport.
Brugen af store sprogmodeller forbruger også energi. For eksempel forbruger en ChatGPT-forespørgsel cirka 10 gange mere end en traditionel Google-søgning. Givet AI’s massive energibehov, kan branchens raske fremskridt håndteres på en bæredygtig måde, eller vil de bidrage yderligere til den globale energiforbrug? McKinseys seneste forskning viser, at omkring 70% af den stigende efterspørgsel på datacentermarkedet er rettet mod faciliteter, der er udstyret til at håndtere avancerede AI-arbejdsbelastninger. Denne ændring ændrer grundlæggende, hvordan datacentre bygges og drives, da de tilpasser sig de unikke krav til disse højtydende genAI-opgaver.
“Traditionelle datacentre kører ofte med ældre, energiintensive maskiner og faste kapaciteter, der kæmper for at tilpasse sig svingende arbejdsbelastninger, hvilket fører til betydelig energispild,” sagde Mark Rydon, Chief Strategy Officer og medstifter af den distribuerede cloud-compute-platform Aethir til mig. “Centraliserede operationer skaber ofte en ubalance mellem ressource-tilgængelighed og forbrugsbehov, hvilket bringer branchen til et kritisk punkt, hvor fremskridt kan risikere at undergrave miljømæssige mål, da AI-drevne krav vokser.”
Branchens ledere møder nu udfordringen direkte, investerer i grønne designs og energi-effektive arkitekturer for datacentre. Bemühninger strækker sig fra at antage fornybare energikilder til at skabe mere effektive kølesystemer, der kan kompensere for de enorme mængder varme, der genereres af genAI-arbejdsbelastninger.
Revolutionering af datacentre for en grønnere fremtid
Lenovo introducerede nyligt ThinkSystem N1380 Neptune, et spring fremad i væskekølingsteknologi for datacentre. Virksomheden påstår, at innovationen allerede gør det muligt for organisationer at udvikle højtydende beregninger til genAI-arbejdsbelastninger med betydeligt lavere energiforbrug – op til 40% mindre strøm i datacentre. N1380 Neptune udnytter NVIDIA’s seneste hardware, herunder Blackwell og GB200 GPU’er, hvilket muliggør håndtering af trillion-parameter AI-modeller i en kompakt opsætning. Lenovo sagde, at de vil banke vejen for datacentre, der kan køre 100KW+ serverhylder uden behov for dedikeret aircondition.
“Vi identificerede et betydeligt krav fra vores nuværende forbrugere: Datacentre forbruger mere strøm, når de håndterer AI-arbejdsbelastninger på grund af forældede kølearkitekturer og traditionelle strukturrammer,” sagde Robert Daigle, Global Director of AI at Lenovo, til mig. “For at forstå dette bedre samarbejdede vi med en high-performance computing (HPC)-kunde om at analysere deres strømforbrug, hvilket førte os til konklusionen, at vi kunne reducere energiforbrug med 40%.” Han tilføjede, at virksomheden tog hensyn til faktorer som fan-strøm og strømforbrug af kølesystemer og sammenlignede disse med standard-systemer, der er tilgængelige gennem Lenovos datacenter-vurderingstjeneste, for at udvikle den nye datacenter-arkitektur i samarbejde med Nvidia.
Det UK-baserede informations-teknologi-rådgivningsfirma AVEVA sagde, at de anvender predictive analytics til at identificere problemer med datacenter-kompressorer, motorer, HVAC-udstyr, luftbehandlere og mere.
“Vi fandt ud af, at det er for-træning af generativ AI, der forbruger massive mængder strøm,” sagde Jim Chappell, AVEVAs chef for AI & Advanced Analytics, til mig. “Gennem vores predictive AI-drevne systemer sigter vi mod at finde problemer lang tid før nogen SCADA eller kontrolsystem, så datacenter-operatører kan løse udstyrsproblemer, før de bliver til store problemer. Desuden har vi en Vision AI-assistent, der integrerer naturligt med vores kontrolsystemer til at hjælpe med at finde andre typer af afvigelser, herunder temperatur-hotspots, når de anvendes med en varmebillede-kamera.”
Imens er decentraliseret beregning for AI-træning og udvikling gennem GPU’er over skyen ved at blive en alternativ løsning. Aethirs Rydon forklarede, at ved at distribuere beregningsopgaver over et bredere, mere tilpasningsdygtigt netværk kan energiforbrug optimeres ved at tilpasse ressource-krav med tilgængelighed, hvilket fører til betydelige reduceringer i spild fra starten.
“I stedet for at afhænge af store, centraliserede datacentre spreder vores ‘Edge’-infrastruktur beregningsopgaver til noder tættere på datakilden, hvilket dramatisk reducerer energibehovet for dataoverførsel og reducerer latency,” sagde Rydon. “Aethir Edge-netværket minimiserer behovet for konstant høj-strømskøling, da arbejdsbelastninger fordeler sig over forskellige miljøer i stedet for at koncentrere sig på en enkelt lokalitet, hvilket hjælper med at undgå energi-intensive kølesystemer, der er typiske for centraliserede datacentre.”
Lignende virksomheder, herunder Amazon og Google, eksperimenterer med fornybare energikilder for at håndtere stigende strømbehov i deres datacentre. Microsoft investerer for eksempel kraftigt i fornybare energikilder og effektivitetsforbedrende teknologier for at reducere datacentrets energiforbrug. Google har også taget skridt til at skifte til kulstof-fri energi og udforske kølesystemer, der minimiserer strømforbrug i datacentre. “Kernenergi er sandsynligvis den hurtigste vej til kulstof-frie datacentre. Store datacenter-udbydere som Microsoft, Amazon og Google investerer nu kraftigt i denne type strømproduktion til fremtiden. Med små modulære reaktorer (SMR’er) gør fleksibiliteten og tiden til produktionen dette til en endnu mere livskraftig mulighed for at opnå Net Zero,” tilføjede AVEVAs Chappell.
Kan AI og datacenter-bæredygtighed sameksistere?
Ugur Tigli, CTO at AI-infrastruktur-platformen MinIO, siger, at selvom vi håber på en fremtid, hvor AI kan udvikle sig uden en enorm stigning i energiforbrug, er det ikke realistisk på kort sigt. “Langsigtede konsekvenser er sværere at forudsige,” sagde han til mig, “men vi vil se en ændring i arbejdsstyrken, og AI vil hjælpe med at forbedre energiforbrug over hele linjen.” Tigli mener, at da energi-effektivitet bliver en markedsprioritet, vil vi se vækst i beregning sammen med fald i energiforbrug i andre sektorer, især da de bliver mere effektive.
Han påpegede også, at der er en voksende interesse blandt forbrugere for grønne AI-løsninger. “Forestil dig en AI-applikation, der performer med 90% effektivitet, men kun bruger halv så meget strøm – det er den type innovation, der virkelig kan tage af,” tilføjede han. Det er tydeligt, at AI’s fremtid ikke kun handler om innovation, men også om datacenter-bæredygtighed. Uanset om det er gennem udvikling af mere effektivt hardware eller smartere måder at bruge ressourcer på, så vil håndtering af AI’s energiforbrug have en stor indvirkning på design og drift af datacentre.
Rydon understregede vigtigheden af branchens initiativer, der fokuserer på bæredygtige datacenter-designs, energi-effektive AI-arbejdsbelastninger og åben ressource-delning. “Disse er afgørende skridt mod grønne operationer,” sagde han. “Virksomheder, der anvender AI, bør samarbejde med teknologivirksomheder for at skabe løsninger, der reducerer miljøpåvirkningen. Ved at arbejde sammen kan vi styre AI mod en mere bæredygtig fremtid.”












