Følg os

Tanke ledere

AIs voksende appetit på magt: Er datacentre klar til at følge med?

mm

Mens kunstig intelligens (AI) kører fremad, belaster dens energibehov datacentre til bristepunktet. Næste generations AI-teknologier som generativ AI (genAI) transformerer ikke kun industrier – deres energiforbrug påvirker næsten alle dataserverkomponenter – fra CPU'er og hukommelse til acceleratorer og netværk.

GenAI-applikationer, herunder Microsofts Copilot og OpenAIs ChatGPT, kræver mere energi end nogensinde før. I 2027 kan træning og vedligeholdelse af disse AI-systemer alene forbruge nok elektricitet til at drive et lille land i et helt år. Og tendensen er ikke aftagende: I løbet af det sidste årti anslås strømbehovet til komponenter som CPU'er, hukommelse og netværk at vokse med 160 % i 2030, ifølge en Goldman Sachs indberette.

Brugen af ​​store sprogmodeller forbruger også energi. For eksempel en ChatGPT-forespørgsel forbruger omkring ti gange en traditionel Google-søgning. I betragtning af AI's massive strømbehov, kan industriens hurtige fremskridt så styres bæredygtigt, eller vil de bidrage yderligere til det globale energiforbrug? McKinseys seneste forskning viser, at omkring 70 % af den stigende efterspørgsel på datacentermarkedet er rettet mod faciliteter, der er udstyret til at håndtere avancerede AI-arbejdsbelastninger. Dette skift ændrer fundamentalt, hvordan datacentre bygges og drives, da de tilpasser sig de unikke krav til disse kraftfulde genAI-opgaver.

"Traditionelle datacentre opererer ofte med aldrende, energikrævende udstyr og faste kapaciteter, der har svært ved at tilpasse sig svingende arbejdsbelastninger, hvilket fører til betydeligt energispild." Mark Rydon, Chief Strategy Officer og medstifter af distribueret cloud compute platform Aethir, fortalte mig. "Centraliserede operationer skaber ofte en ubalance mellem ressourcetilgængelighed og forbrugsbehov, hvilket fører industrien til et kritisk tidspunkt, hvor fremskridt kan risikere at underminere miljømål, efterhånden som AI-drevne krav vokser."

Brancheledere tager nu fat på udfordringen og investerer i grønnere design og energieffektive arkitekturer til datacentre. Indsatsen spænder fra at indføre vedvarende energikilder til at skabe mere effektive kølesystemer, der kan opveje de enorme mængder varme, der genereres af genAI-arbejdsbelastninger.

Revolutionerende datacentre for en grønnere fremtid

Lenovo introducerede for nylig ThinkSystem N1380 Neptune, et spring fremad inden for væskekølingsteknologi til datacentre. Virksomheden hævder, at innovationen allerede gør organisationer i stand til at implementere høj-powered computing til genAI-arbejdsbelastninger med væsentligt lavere energiforbrug - op til 40 % mindre strøm i datacentre. N1380 Neptune, udnytter NVIDIAs nyeste hardware, inklusive Blackwell og GB200 GPU'erne, hvilket muliggør håndtering af billioner-parameter AI-modeller i et kompakt setup. Lenovo sagde, at det sigter mod at bane vejen for datacentre, der kan betjene 100KW+ serverracks uden behov for dedikeret aircondition.

"Vi identificerede et væsentligt krav fra vores nuværende forbrugere: datacentre bruger mere strøm, når de håndterer AI-arbejdsbelastninger på grund af forældede kølearkitekturer og traditionelle strukturelle rammer." Robert Daigle, Global Director for AI hos Lenovo, fortalte mig. "For at forstå dette bedre, samarbejdede vi med en højtydende computerkunde (HPC) for at analysere deres strømforbrug, hvilket førte os til den konklusion, at vi kunne reducere energiforbruget med 40 %." Han tilføjede, at virksomheden tog hensyn til faktorer som blæsereffekt og strømforbruget af køleenheder, og sammenlignede disse med standardsystemer, der er tilgængelige via Lenovos datacentervurderingstjeneste, for at udvikle den nye datacenterarkitektur i samarbejde med Nvidia.

UK-baseret informationsteknologi konsulentvirksomhed JEG HAVDE, sagde, at det bruger forudsigende analyser til at identificere problemer med datacenterkompressorer, motorer, HVAC-udstyr, luftbehandlere og mere.

"Vi fandt ud af, at det er foruddannelsen af ​​generativ AI, der forbruger massivt strøm," Jim Chappell, AVEVAs leder af AI og avanceret analyse, fortalte mig. "Gennem vores forudsigelige AI-drevne systemer sigter vi efter at finde problemer i god tid før ethvert SCADA- eller kontrolsystem, hvilket giver datacenteroperatører mulighed for at løse udstyrsproblemer, før de bliver store problemer. Derudover har vi en Vision AI-assistent, der integreres naturligt med vores kontrolsystemer for at hjælpe med at finde andre typer af anomalier, herunder temperatur-hot spots, når de bruges med et varmebilledkamera."

I mellemtiden dukker decentraliseret databehandling til AI-træning og udvikling gennem GPU'er over skyen op som et alternativ. Aethirs rydon forklaret, at ved at fordele beregningsopgaver på tværs af et bredere, mere tilpasningsdygtigt netværk, kan energiforbruget optimeres ved at tilpasse efterspørgsel efter ressourcer med tilgængelighed – hvilket fører til væsentlige reduktioner i spild fra starten.

"I stedet for at stole på store, centraliserede datacentre, spreder vores 'Edge'-infrastruktur beregningsopgaver til noder tættere på datakilden, hvilket drastisk reducerer energibelastningen til dataoverførsel og sænker latens." sagde Rydon. "Aethir Edge-netværket minimerer behovet for konstant højeffektkøling, da arbejdsbelastninger fordeles på tværs af forskellige miljøer i stedet for koncentreret på et enkelt sted, hvilket hjælper med at undgå energikrævende kølesystemer, der er typiske for centrale datacentre."

Ligeledes virksomheder inkl Amazon og Google eksperimenterer med vedvarende energikilder for at håndtere stigende strømbehov i deres datacentre. Microsoft investerer for eksempel massivt i vedvarende energikilder og effektivitetsfremmende teknologier for at reducere sit datacenters energiforbrug. Google har også taget skridt til at skifte til kulstoffri energi og udforske kølesystemer, der minimerer strømforbruget i datacentre. "Atomkraft er sandsynligvis den hurtigste vej til kulstoffrie datacentre. Store datacenterudbydere som Microsoft, Amazon og Google er nu kraftige investeringer i denne type elproduktion for fremtiden. Med små modulære reaktorer (SMR'er) gør fleksibiliteten og tiden til produktion dette til en endnu mere levedygtig mulighed for at opnå Net Zero." tilføjet AVEVA's Chappell.

Kan AI og datacenterets bæredygtighed eksistere side om side?

Ugur Tigli, CTO hos AI-infrastrukturplatformen MinIO, siger, at selvom vi håber på en fremtid, hvor AI kan udvikle sig uden en enorm stigning i energiforbruget, er det simpelthen ikke realistisk på kort sigt. "Langsigtede virkninger er sværere at forudsige," han fortalte mig, "men vi vil se et skift i arbejdsstyrken, og kunstig intelligens vil hjælpe med at forbedre energiforbruget over hele linjen." Tigli mener, at efterhånden som energieffektivitet bliver en markedsprioritet, vil vi se vækst i databehandling sammen med fald i energiforbrug i andre sektorer, især efterhånden som de bliver mere effektive.

Han påpegede også, at der er en stigende interesse blandt forbrugerne for grønnere AI-løsninger. "Forestil dig en AI-applikation, der yder 90 % effektivitet, men kun bruger halvdelen af ​​strømmen - det er den slags innovation, der virkelig kunne tage fart." tilføjede han. Det er tydeligt, at fremtiden for AI ikke kun handler om innovation – det handler også om bæredygtighed i datacentre. Uanset om det er gennem udvikling af mere effektiv hardware eller smartere måder at bruge ressourcer på, vil den måde, vi styrer AI's energiforbrug på, i høj grad påvirke design og drift af datacentre.

rydon understregede vigtigheden af ​​branchedækkende initiativer, der fokuserer på bæredygtigt datacenterdesign, energieffektive AI-arbejdsbelastninger og åben ressourcedeling. "Dette er afgørende skridt mod grønnere operationer," sagde han. "Virksomheder, der bruger kunstig intelligens, bør samarbejde med teknologivirksomheder for at skabe løsninger, der reducerer miljøpåvirkningen. Ved at arbejde sammen kan vi styre AI mod en mere bæredygtig fremtid."

Victor Dey er en teknisk redaktør og skribent, der dækker AI, krypto, datavidenskab, metaverse og cybersikkerhed inden for virksomhedsområdet. Han kan prale af et halvt årti med medie- og AI-erfaring ved at arbejde på kendte medier som VentureBeat, Metaverse Post, Observer og andre. Victor har vejledt studerendes grundlæggere ved acceleratorprogrammer på førende universiteter, herunder University of Oxford og University of Southern California, og har en mastergrad i datavidenskab og analyse.