Tankeledere
AI-boomet ikke brast, men AI-regningen ændrer sig bestemt

Vær ikke for bange for AI-bjørnene. De undrer sig højt over, om den store boom i AI-investeringer allerede er kommet og gået, om markedets begejstring og udgifterne til massive AI-træningssystemer drevet af multitudes af high-performance GPU’er har spillet sig ud, og om forventningerne til AI-æraen skal skæres radikalt tilbage.
Men hvis du ser nærmere på planerne for de store hyperscalers, er AI-investeringen i live og rask. Meta, Amazon, Microsoft og Google har alle for nylig fordoblet deres investeringer i AI-teknologi. Deres samlede engagement for 2025 beløber sig til over 300 milliarder dollars, ifølge en nyhedshistorie i Financial Times. Microsofts administrerende direktør Satya Nadella sagde, at Microsoft alene kan bruge 80 milliarder dollars på AI dette år. Meta-stifter og administrerende direktør Mark Zuckerberg sagde på Facebook: “Vi planlægger at investere 60-65 milliarder dollars i kapitaludgifter dette år, samtidig med at vi udvider vores AI-hold betydeligt, og vi har kapitalen til at fortsætte med at investere i de kommende år.”
Dette er ikke lyden af en AI-boom, der går bust, men der har været en voksende uro om, hvor meget penge der bliver brugt på at aktivere AI-applikationer. Efter mindst to års teknologigiganter, der sagde, de så en tydelig efterspørgsel efter mere beregningskraft til at hjælpe med at træne massive AI-modeller, er 2025 begyndt med, at disse samme selskaber bliver kaldt på gulvtæppet dagligt af erhvervsmedier for at have bygget op for meget AI-hype.
Hvorfor har der været så pludselig skift fra håb til bekymring? Svaret kan findes delvist i den hurtige opstigning af en ny AI-applikation fra Kina. Men for at fuldt ud forstå, hvad der virkelig sker, og hvad det betyder for AI-investering og teknologi-programmer i de kommende år, må vi anerkende, at AI-æraen skifter ind i en ny fase af sin udvikling.
DeepSeeking sandheden
Verden kender nu alt om DeepSeek, det kinesiske AI-selskab, der praler af at have brugt inference-motorer og statistisk resonnering til at træne store sprogmodeller langt mere effektivt og med mindre omkostninger end andre selskaber har trænet deres modeller.
Specifikt påstod DeepSeek, at deres teknikker resulterede i, at de havde brug for langt færre GPU’er (så få som 2.048 GPU’er) samt mindre kraftfulde GPU’er (Nvidia H800) end de hundredtusinder af premium-ydelse GPU’er (tænk Nvidia H100), som nogle hyperskala-selskaber havde brug for til at træne deres modeller. I forhold til omkostningsbesparelser havde OpenAI brugt milliarder af dollars på at træne ChatGPT, mens DeepSeek angiveligt brugte så lidt som 6,5 millioner dollars til at træne sin R1-model.
Det skal bemærkes, at mange eksperter har tvivlet på DeepSeeks påstande om udgifter, men skaden var sket, da nyheden om deres forskellige metoder drev en dyb fald i aktieværdien af hyperskala-selskaberne og de selskaber, hvis GPU’er de havde brugt milliarder på til at træne deres AI-modeller.
Dog blev et par vigtige punkter tabt i kaosset. Det ene var en forståelse af, at DeepSeek ikke “opfandt” en ny måde at arbejde med AI på. Det andet er, at meget af AI-økosystemet har været godt klar over en forestående skift i, hvordan AI-investeringsdollarene skal bruges, og hvordan AI selv vil blive sat i arbejde i de kommende år.
Med hensyn til DeepSeeks metoder er idéen om at bruge AI-inference-motorer og statistisk resonnering ikke noget nyt. Brugen af statistisk resonnering er et aspekt af den bredere koncept af inference-model-resonnering, der indebærer, at AI kan trække slutninger baseret på mønstergenkendelse. Dette er essentielt lig med den menneskelige evne til at lære forskellige måder at tilgå et problem på og sammenligne dem for at finde den bedst mulige løsning. Inference-baseret model-resonnering kan bruges i dag og er ikke eksklusiv for et kinesisk startup.
Imens har AI-økosystemet i længere tid været klar over en grundlæggende ændring i, hvordan vi arbejder med AI og de beregningsressourcer, der kræves. De første år af AI-æraen har været alt om det store job med at træne store AI-modeller på meget store datasæt, som alle krævede meget proces, komplekse beregninger, vægtjusteringer og afhængighed af hukommelse. Efter AI-modellerne er trænet, ændrer tingene sig. AI kan bruge inference til at anvende alt, hvad den har lært, til nye datasæt, opgaver og problemer. Inference, som en mindre beregningsintensiv proces end træning, kræver ikke så mange GPU’er eller andre beregningsressourcer.
Den ultimative sandhed om DeepSeek er, at selv om deres metoder ikke chokerede de fleste af os i AI-økosystemet så meget som det gjorde for interesserede aktieinvestorer, har det dog fremhævet en af måderne, hvorpå inference vil være kerne til den næste fase af AI’s udvikling.
AI: Den næste generation
Løftet og potentialet for AI er ikke ændret. De fortsatte massive AI-investeringer fra de store hyperscalers viser den tillid, de har til den fremtidige værdi, de kan låse op fra AI, samt de måder, hvorpå AI kan ændre, hvordan næsten alle brancher fungerer, og hvordan næsten alle mennesker går til i deres daglige liv.
Hvad der er ændret for disse hyperscalers er, hvordan disse dollars sandsynligvis vil blive brugt. I de første år af AI-æraen var de fleste investeringer nødvendigvis på træning. Hvis du tænker på AI som et barn med en sind, der stadig er under udvikling, har vi brugt mange penge på at sende det til de bedste skoler og universiteter. Nu er barnet en uddannet voksen – og det har brug for at få et job for at kunne forsørge sig selv. I virkelighedens verden har vi investeret mange penge i at træne AI, og nu har vi brug for at se afkastet på den investering ved at bruge AI til at generere ny indtægt.
For at opnå dette afkast på investeringen har AI brug for at blive mere effektiv og mindre kostbar for at hjælpe selskaber med at maksimere dens markedstiltrækningskraft og dens nytte for så mange applikationer som muligt. De mest lukrative nye tjenester vil være de autonome, der ikke kræver menneskelig overvågning og administration.
For mange selskaber betyder det at udnytte ressource-effektive AI-beregningsteknikker, såsom inference-model-resonnering, til hurtigt og omkostningseffektivt at aktivere autonome maskine-til-maskine-kommunikationer. For eksempel kan AI i trådløsindustrien bruges til at autonome analysere realtidsdata om spektrumudnyttelse på et mobilt netværk til at optimere kanalbrug og mindske interferens mellem brugere, hvilket ultimativt tillader en mobiloperatør at støtte mere dynamisk spektrumdeling på tværs af sit netværk. Denne type mere effektiv, autonom AI-drevet maskine-til-maskine-kommunikation vil definere AI’s næste generation.
Som har været tilfældet med hver anden stor beregningsæra, udvikler AI-beregning sig stadig. Hvis historien om beregning har lært os noget, er det, at ny teknologi altid kræver mange penge i starten, men omkostningerne vil gå ned, og effektiviteten vil gå op, når vi begynder at udnytte forbedrede teknikker og bedre praksis til at skabe mere fordelagtige og billige produkter og tjenester til at appellere til de størst mulige markeder. Innovation finder altid en vej.
AI-sektoren kan have oplevet et tilbageslag for nylig, hvis man lytter til AI-bjørnene, men de dollars, hyperskala-selskaberne planlægger at bruge i år, og den øgede brug af inference-baserede teknikker fortæller en anden historie: AI-beregning ændrer sig sandelig, men AI’s løfte er fuldt intakt.












