Anslut dig till vÄrt nÀtverk!

Artificiell intelligens

Google har precis slĂ€ppt riktiga siffror om AI-energianvĂ€ndning – och de Ă€r inte vad du tror

mm

Alla pratar om AI:s enorma energiavtryck. Du har sett rubrikerna: ”ChatGPT anvĂ€nder lika mycket el som ett litet land” eller ”Varje AI-förfrĂ„gan dricker en flaska vatten”.

Google precis publicerat faktiska data frÄn deras produktionssystem, och siffrorna berÀttar en helt annan historia.

Den verkliga energikostnaden för din AI-frÄga

HÀr Àr vad Google hittade: MedianvÀrdet tvillingarna Textmeddelandet anvÀnder 0.24 wattimmar energi. Det Àr mindre el Àn att titta pÄ TV i nio sekunder. Vattenförbrukning? Fem droppar. Inte fem glas. Fem droppar.

Skillnaden mellan allmÀnhetens uppfattning och verkligheten Àr enorm. Tidigare uppskattningar hÀvdade att AI-uppmaningar förbrukade mellan 10 och 50 milliliter vatten per frÄga. Vissa studier tyder pÄ en energiförbrukning som Àr 30 gÄnger högre Àn vad Google mÀter i produktionen.

Varför den enorma skillnaden? För att ingen har mÀtt verkliga system i stor skala fram tills nu. Akademiska studier kör isolerade tester pÄ underutnyttjad hÄrdvara. De mÀter i princip en bils brÀnsleeffektivitet medan den stÄr pÄ tomgÄng pÄ uppfarten.

BerÀkning av vÄr AI-energiförbrukning

44x-förbÀttringen

Google minskade sina AI-koldioxidutslĂ€pp med 44 gĂ„nger pĂ„ ett Ă„r. Inte 44 procent – ​​44 gĂ„nger.

Detta Àr inte nÄgon teoretisk förbÀttring i ett labb. Detta hÀnder just nu pÄ system som hanterar miljarder frÄgor. De uppnÄdde detta genom en kombination av programvaruoptimering (33x förbÀttring) och renare energikÀllor (1.4x förbÀttring).

De flesta studier tittar bara pÄ AI-chipen som gör berÀkningen. Det Àr som att mÀta en restaurangs energiförbrukning genom att bara rÀkna ugnarna och ignorera kylskÄp, lampor och vÀrme- och ventilationssystemet.

Googles data visar hela bilden: Ja, AI-acceleratorerna anvÀnder 58 % av energin. Men du behöver ocksÄ vanliga processorer och minne (24 %), reservkapacitet för tillförlitlighet (10 %) och kylsystem (8 %). Hoppa över nÄgot av dessa i dina mÀtningar, och dina siffror Àr i princip meningslösa.

NĂ€r Google tillĂ€mpade den snĂ€va metod som alla andra anvĂ€nder – att bara mĂ€ta AI-chipsen pĂ„ fullt utnyttjade maskiner – sjönk deras energisiffra till 0.10 wattimmar. Det verkliga produktionssystemet anvĂ€nder 2.4 gĂ„nger mer energi eftersom verkliga system behöver redundans, kylning och stödjande infrastruktur.

Vad detta faktiskt betyder för AI:s framtid

BerÀttelsen kring AI:s energiförbrukning behöver en verklighetskontroll. Ja, AI anvÀnder energi. Men korrekt optimerade system Àr mycket effektivare Àn vad ödesscenarierna antyder.

Kontexten spelar roll hÀr. De dÀr 0.24 wattimmar per frÄga? Amerikaner anvÀnder i genomsnitt cirka 30 kilowattimmar el per dag. Man skulle behöva köra 125,000 XNUMX AI-frÄgor för att matcha en dags typiska hushÄllsenergianvÀndning.

Vattenförbrukningshistorien Àr Ànnu mer dramatisk. De dÀr fem vattendropparna per förfrÄgan? Du anvÀnder mer vatten under den första sekunden av att tvÀtta hÀnderna.

Optimeringsstacken

Google uppnÄr inte dessa siffror genom ett enda genombrott. De Àr staplingsoptimeringar över alla lager i systemet.

De kör mindre ”utkast”-modeller som skissar upp svar och sedan verifierar med större modeller endast vid behov. De sĂ€tter ihop tusentals frĂ„gor för effektivitets skull. De anvĂ€nder anpassade chip som Ă€r specifikt utformade för AI-arbetsbelastningar och som Ă€r 30 gĂ„nger effektivare Ă€n deras första generation.

Deras datacenter har bara 9 % överdriftskostnader över det teoretiska minimumet – i princip sĂ„ effektiva som fysiskt möjligt. Och de drivs i allt högre grad av ren energi, vilket minskar utslĂ€ppen Ă€ven nĂ€r elförbrukningen ökar.

Bottom Line

Den verkliga historien Àr att effektiva AI-system kan vara dramatiskt mer hÄllbara Àn man vanligtvis befarar, men detta krÀver omfattande optimering som större delen av branschen Ànnu inte har uppnÄtt.

Detta fungerar bara nÀr företag faktiskt optimerar sin fulla stack och mÀter ordentligt. Företagen som behandlar AI-infrastruktur som en eftertanke och kör ineffektiva system pÄ smutsiga elnÀt? Det Àr de som skapar problemen som alla oroar sig för.

Klyftan mellan effektiva och ineffektiva AI-system Àr enorm. Och just nu anvÀnder större delen av branschen fortfarande den ineffektiva versionen.

Alex McFarland Àr en AI-journalist och författare som utforskar den senaste utvecklingen inom artificiell intelligens. Han har samarbetat med mÄnga AI-startups och publikationer över hela vÀrlden.