Connect with us

Kunstig intelligens

Den virkelige AI-flaskehals: Effekt, køling og fysikken bag skala

mm

Kunstig intelligens har udviklet sig i en ekstraordinær takt over det seneste årti. Hurtigere GPU’er, større clusters og revolutionerende arkitekturer har låst op for gennembrud, der tidligere syntes umulige. Men da industrien presser på mod trillion-parameter-modeller og hyperskala-AI-fabrikker, har den næste barriere intet at gøre med algoritmer. Den virkelige flaskehals i dag er fysisk: effekt, køling og den infrastruktur, der kræves for at opretholde beregning på planetær skala.

Spørgsmålet er ikke længere, hvor mange chips du kan producere, men om du kan levere gigawatt, vand og transmissionsledninger til at drive dem. Infrastruktur, ikke silicium, er det, der vil sætte tempoet for AI i de kommende år.

Gigawatt over gigaflops

OpenAI’s “Stargate”-projekt, som bygges i samarbejde med Oracle og SoftBank, sigter mod næsten 7 gigawatt kapacitet på tværs af amerikanske campusser — sammenlignelig med multiple kernereaktorer. På denne skala er den største udfordring ikke at producere GPU’er, men at sikre kraftværker og understationer til at drive dem.

Microsofts krav er lige så overvældende. Dets AI-arbejdslaster forventes at kræve så meget strøm som hele New England-regionen i 2030. Dette hjælper med at forklare, hvorfor virksomheden har investeret tiende milliarder i fornyelige projekter og også søger mere eksperimenterende muligheder som kernefusion og avancerede kernereaktorer.

Dynamikken breder sig ind i energipolitikken. I PJM Interconnection, den regionale transmissionsorganisation, der styrer nettet for over 65 millioner mennesker på tværs af 13 stater og Washington, D.C., udforsker utilities begrænsningsmekanismer for datacenter under toppen af efterspørgsel. Store teknologivirksomheder lobbyer imod sådanne begrænsninger, men det faktum, at regulatorene overhovedet overvejer dem, viser, hvor central AI er blevet for netplanlægning.

Kølingsudfordringen

At levere strøm er kun halvdelen af problemet. Når strømmen når rackene, er den næste udfordring varme. Hver højendte GPU forbruger omkring 700 watt, og med rack, der har hundredvis af GPU’er, når tæthederne 100 til 600 kilowatt per rack. Luftkøling, der har været branchestandard i årtier, bliver uanvendelig ud over cirka 40 kilowatt per rack på grund af luftstrømsinefficienser og recirkulation.

Væskekøling er derfor skiftet fra niche til mainstream. NVIDIA’s seneste væskekølede Blackwell-platforme er designede til hyperskala-AI-clusters og leverer 25× bedre energiefølsomhed og 300× større vandeffektivitet end luftkølede rack. Virksomheden har også samarbejdet med Vertiv om en referencearkitektur, der kan håndtere mere end 130 kilowatt per rack, hvilket gør tætte GPU-udrulninger mulige.

Startups innovere også. Corintis, et schweizisk firma, der indbygger mikrokanaler direkte i chip-underlag, har nylig samlet 24 millioner dollars og tæller allerede Microsoft blandt sine kunder. Microsofts egen forskningsteam har demonstreret mikrofluidiske kanaler indgraveret i chip-forpakning, hvilket reducerer toppen af GPU-temperaturer med op til 65 procent og tredobler effektiviteten i forhold til traditionelle kolde plader. Disse teknologier gør det muligt at holde GPU’er kørende på fuld kraft uden at smelte datacenteret.

Vand som en strategisk variabel

Væskekøling introducerer en anden variabel: vandforbrug. Fordampnings- og kølet vand-systemer kan kræve enorme volumener, når de skaleres op til campusser på hundredvis af megawatt. I Phoenix kan datacenter-kluster kræve hundredvis af millioner gallon vand om dagen, hvilket vækker bekymring i tørre regioner.

Dette har udløst udviklingen af zero-vand og lukkede kølesystemer. IEEE Spectrum har dokumenteret strategier som forseglede dielektriske badekar, tørkølere og vandfrie kølere, der reducerer forbruget af drikkevand til næsten nul. Imens eksperimenterer nogle operatører med genanvendelse af varmeforsyning. Projekter som Aquasar og iDataCool har vist, hvordan varm-vand-kølingsløkker kan føde bygningers varmesystemer eller absorberingskølere, hvilket genanvender meget af den energi, der ellers ville gå tabt.

Kompromiset er ofte mellem vand og elektricitet: lukkede eller tørre systemer forbruger mere energi, mens fordampningsdesigner sparer strøm, men trækker kraftigt på vand. I vandstressede regioner favoriserer politik mere og mere vandbesparelse, selv om det betyder højere energiforbrug.

Infrastruktur og nettet

Selv med effekt- og kølingsløsninger på plads er den endelige flaskehals infrastruktur. Beslutninger om placering afgør nu vinderne og taberne i AI-kaplingen.

Microsofts 80 milliarder dollars Fairwater-campus i Wisconsin illustrerer, hvordan strategisk placering er blevet. Stedet dækker 315 acres, huser hundredvis af tusinder af GPU’er og blev valgt for sin adgang til understationer, fiberlinjer og grundvand. Designet lægger også vægt på lukket køling for at minimere vandpåvirkningen.

For at støtte sin voksende belastning har Microsoft indgået en banebrydende aftale med Brookfield for at tilføje 10,5 gigawatt fornybar kapacitet i 2030. Samtidig har det støttet mere eksperimenterende projekter som et kernefusionsanlæg under opførelse af Helion Energy, planlagt til at forsyne datacenter i 2028, og en 20-årig aftale om at genåbne Three Mile Island-kernekraftværket i Pennsylvania.

Amazon og Google tager lignende skridt, sikrer steder nær kernekraftværker og udvikler deres egne rene energi-porteføljer. I Irland, hvor datacenter allerede forbruger mere strøm end alle husholdninger tilsammen, har regulatorene indfrosset nye godkendelser indtil mindst 2028, hvilket understreger, hvordan politik og tilladelser kan afspore selv de bedst finansierte projekter.

Smarter drift: AI, der styrer AI

Interessant nok bruges AI selv til at styre infrastrukturbyrden. Reinforcement learning er blevet anvendt i produktionsdatacenter til at optimere kølesystemer, hvilket har resulteret i 14 til 21 procent energibesparelse uden at kompromittere med sikkerheden. Digitale tvillinge og prædiktivt modellering bruges også til at forudse varme punkter, forkøle udstyr og flytte arbejdslaster til koldere timer eller perioder med fornybar overskydende kapacitet.

Google har allerede demonstreret, hvordan maskinlæring kan reducere datacenter-kølingsbehov med 40 procent, og andre operatører adopterer lignende systemer. Da strøm- og kølingsomkostninger stiger, bliver disse operationelle besparelser en afgørende konkurrencefordel.

Den strategiske udvikling

Trajektoren er klar. AI-efterspørgsel forventes at fordoble den globale datacenter-strømforbrug i 2030, hvor AI-arbejdslaster alene står for en midtsingle-digit andel af den samlede globale strømforbrug i 2050. Mens NVIDIA og andre chipproducenter fortsætter med at skubbe silicium-ydelsen fremad, vil AI’s praktiske grænse være defineret af, hvor hurtigt utilities kan bygge nye kraftværker, transmission og køleinfrastruktur.

For virksomheder, der bygger AI-produkter, betyder dette, at vejledninger mere og mere er knyttet til, hvor kapacitet findes. For investorer kan de mest værdifulde muligheder være utilities, transmissionsudviklere og kølestartups snarere end kun GPU-leverandører. Og for politikere skifter debatten om AI fra spørgsmål om etik og datastyring til spørgsmål om megawatt, vand og netmodernisering.

AI’s fremtid vil ikke blot blive afgjort i forskningslaboratorier og chip-fabrikker, men på understationer, kølekredsløb og kraftværker. Fysikken bag skalaen — ikke kun algoritmerne — er det, der vil bestemme AI’s hastighed og omfang i det kommende årti.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.