Tankeledare
AI:s vĂ€xande aptit pĂ„ kraft: Ăr datacenter redo att hĂ„lla jĂ€mna steg?
Medan artificiell intelligens (AI) rusar framåt, belastar dess energikrav datacenter till bristningsgränsen. Nästa generations AI-teknologier som generativ AI (genAI) förvandlar inte bara branscher – deras energiförbrukning påverkar nästan varje dataserverkomponent, från CPU och minne till accelereratorer och nätverk.
GenAI-applikationer, inklusive Microsofts Copilot och OpenAIs ChatGPT, kräver mer energi än någonsin tidigare. År 2027 kan utbildning och underhåll av dessa AI-system ensam förbruka tillräckligt med el för att driva ett litet land under ett helt år. Och trenden avtar inte: under det senaste decenniet beräknas effektkraven för komponenter som CPU, minne och nätverk öka med 160 % till 2030, enligt en Goldman Sachs-rapport.
Användningen av stora språkmodeller förbrukar också energi. Till exempel förbrukar en ChatGPT-fråga cirka tio gånger mer energi än en traditionell Google-sökning. Med tanke på AI:s enorma effektkrav, kan branschens snabba framsteg hanteras på ett hållbart sätt, eller kommer de att bidra till den globala energiförbrukningen? McKinseys senaste forskning visar att cirka 70 % av den ökande efterfrågan på datacentermarknaden är inriktad mot anläggningar som är utrustade för att hantera avancerade AI-arbetsbelastningar. Denna förändring förändrar grundläggande hur datacenter byggs och drivs, eftersom de anpassar sig till de unika kraven för dessa högeffektiva genAI-uppgifter.
”Traditionella datacenter opererar ofta med åldrande, energikrävande utrustning och fasta kapaciteter som kämpar för att anpassa sig till fluktuerande arbetsbelastningar, vilket leder till betydande energislöseri”, sa Mark Rydon, Chief Strategy Officer och medgrundare av den distribuerade molntjänsten Aethir, till mig. ”Centraliserade operationer skapar ofta en obalans mellan resurstillgänglighet och konsumtionsbehov, vilket leder branschen till en kritisk punkt där framsteg kan riskera att undergräva miljömål när AI-drivna krav ökar.”
Branschledare möter nu utmaningen direkt, genom att investera i grönare design och energieffektiva arkitekturer för datacenter. Insatser sträcker sig från att anta förnybara energikällor till att skapa mer effektiva kylsystem som kan kompensera den enorma mängden värme som genereras av genAI-arbetsbelastningar.
Att revolutionera datacenter för en grönare framtid
Lenovo introducerade nyligen ThinkSystem N1380 Neptune, ett stort steg framåt i flytande kylnings-teknologi för datacenter. Företaget hävdar att innovationen redan möjliggör för organisationer att distribuera högeffektiv datorberäkning för genAI-arbetsbelastningar med betydligt lägre energiförbrukning – upp till 40 % mindre effekt i datacenter. N1380 Neptune utnyttjar NVIDIA:s senaste hårdvara, inklusive Blackwell och GB200 GPU:er, vilket möjliggör hantering av trillion-parameter AI-modeller i en kompakt konfiguration. Lenovo säger att de avser att bana väg för datacenter som kan operera 100KW+ serverhyllor utan behov av dedikerad luftkonditionering.
”Vi identifierade ett betydande krav från våra nuvarande kunder: datacenter förbrukar mer kraft när de hanterar AI-arbetsbelastningar på grund av föråldrade kylningsarkitekturer och traditionella strukturer,” sa Robert Daigle, Global Director of AI at Lenovo, till mig. ”För att förstå detta bättre, samarbetade vi med en högpresterande datorberäkningskund (HPC) för att analysera deras effektförbrukning, vilket ledde oss till slutsatsen att vi kunde minska energiförbrukningen med 40 %.” Han tillade att företaget beaktade faktorer som fläktkraft och effektförbrukning av kylenheter, och jämförde dessa med standardsystem som finns tillgängliga genom Lenovos datacenterutvärderingstjänst, för att utveckla den nya datacenterarkitekturen i samarbete med Nvidia.
Det Storbritannien-baserade IT-konsultföretaget AVEVA säger att de använder prediktiv analys för att identifiera problem med datacenterkompressorer, motorer, HVAC-utrustning, luftbehandlingsanläggningar och mer.
”Vi fann att det är förträning av generativ AI som förbrukar enorm mängd kraft,” sa Jim Chappell, AVEVA:s chef för AI och avancerad analys, till mig. ”Genom våra prediktiva AI-drivna system syftar vi till att hitta problem långt innan något SCADA- eller kontrollsystem, vilket möjliggör för datacenteroperatörer att åtgärda utrustningsproblem innan de blir stora problem. Dessutom har vi en Vision AI-assistent som integreras naturligt med våra kontrollsystem för att hjälpa till att hitta andra typer av avvikelser, inklusive temperaturheta fläckar när de används med en värmekamerabild.”
Samtidigt växer decentraliserad datorberäkning för AI-utbildning och utveckling via GPU:er över molnet som ett alternativ. Aethirs Rydon förklarade att genom att distribuera beräkningsuppgifter över ett bredare, mer anpassningsbart nätverk, kan energianvändningen optimeras genom att anpassa resurskrav till tillgänglighet, vilket leder till betydande minskningar av slöseri från början.
”Istället för att förlita sig på stora, centraliserade datacenter, sprider vår ’Edge’-infrastruktur beräkningsuppgifter till noder närmare datakällan, vilket drastiskt minskar energibördan för dataöverföring och minskar latency,” sa Rydon. ”Aethir Edge-nätverket minskar behovet av konstant högeffektkylning, eftersom arbetsbelastningar distribueras över olika miljöer snarare än koncentreras till en enda plats, vilket hjälper till att undvika energikrävande kylningsystem som är typiska för centrala datacenter.”
På samma sätt experimenterar företag som Amazon och Google med förnybara energikällor för att hantera de ökande effektkraven i sina datacenter. Microsoft investerar till exempel kraftigt i förnybara energikällor och effektivitetsförbättrande teknologier för att minska datacenterens energiförbrukning. Google har också tagit steg för att gå över till koldioxidfri energi och utforska kylningsystem som minimerar effektförbrukning i datacenter. ”Kärnkraft är troligen den snabbaste vägen till koldioxidfria datacenter. Stora datacenterleverantörer som Microsoft, Amazon och Google investerar nu heavily i denna typ av kraftgenerering för framtiden. Med små modulära reaktorer (SMR) gör flexibiliteten och tiden till produktion detta till ett ännu mer livskraftigt alternativ för att uppnå Net Zero,” tillade AVEVA:s Chappell.
Kan AI och datacenter-hållbarhet samexistera?
Ugur Tigli, CTO på AI-infrastrukturplattformen MinIO, säger att medan vi hoppas på en framtid där AI kan utvecklas utan en enorm ökning av energiförbrukning, är det inte realistiskt på kort sikt. ”Långsiktiga effekter är svårare att förutsäga,” sa han till mig, ”men vi kommer att se en förändring i arbetsstyrkan, och AI kommer att hjälpa till att förbättra energiförbrukningen över hela linjen.” Tigli tror att när energieffektivitet blir en marknadsprioritet, kommer vi att se tillväxt i beräkning samtidigt som energiförbrukningen minskar i andra sektorer, särskilt när de blir mer effektiva.
Han påpekade också att det finns en växande efterfrågan bland konsumenter för grönare AI-lösningar. ”Tänk dig en AI-applikation som presterar med 90 % effektivitet men använder bara hälften så mycket kraft – det är den typen av innovation som verkligen kan ta fart,” tillade han. Det är tydligt att AI:s framtid inte bara handlar om innovation – det handlar också om datacenter-hållbarhet. Oavsett om det är genom att utveckla mer effektiv hårdvara eller smartare sätt att använda resurser, kommer hanteringen av AI:s energiförbrukning att ha en stor inverkan på designen och driften av datacenter.
Rydon betonade vikten av branschomfattande initiativ som fokuserar på hållbara datacenterdesign, energieffektiva AI-arbetsbelastningar och öppen resursdelning. ”Dessa är avgörande steg mot grönare operationer,” sa han. ”Företag som använder AI bör samarbeta med teknikföretag för att skapa lösningar som minskar miljöpåverkan. Genom att arbeta tillsammans kan vi styra AI mot en mer hållbar framtid.”












