Connect with us

Tankeledere

AI-boomen har ikke bustet, men AI-regningen er definitivt i endring

mm

Vær ikke for redd for AI-bjørnene. De undrer seg høyt over om den store boomen i AI-investeringer allerede har kommet og gått, om mye markedsspill og utgifter til massive AI-treningsystemer drevet av multitudes of high-performance GPUs har spilt seg ut, og om forventningene til AI-æraen bør radikalt skaleres ned.

Men hvis du tar en nærmere titt på planene til de største hyperskalerne, er AI-investeringen levende og godt i live. Meta, Amazon, Microsoft og Google har alle nylig doblet ned på å investere i AI-teknologi. Deres kollektive forpliktelse for 2025 utgjør mer enn 300 milliarder dollar, ifølge en nyhet i Financial Times. Microsoft-sjef Satya Nadella sa at Microsoft kunne bruke 80 milliarder dollar alene på AI dette året. Meta-grunnlegger og sjef Mark Zuckerberg sa på Facebook: “Vi planlegger å investere 60-65 milliarder dollar i kapitalutgifter dette året, samtidig som vi vokser våre AI-lag betydelig, og vi har kapitalen til å fortsette å investere i årene som kommer.”

Dette er ikke lyden av en AI-boom som går bust, men det har vært en økende uro om hvor mye penger som brukes på å muliggjøre AI-applikasjoner. Etter minst to år med at teknologigigantene sa at de så et tydelig behov for mer regnekraft for å hjelpe med å trene massive AI-modeller, har 2025 begynt med at de samme selskapene blir kalt på teppet daglig av næringsmediene for å bygge opp så mye AI-hype.

Hvorfor har det vært en så plutselig skifte fra håp til bekymring? Svaret kan finnes delvis i den raske oppblomstringen av en ny AI-applikasjon fra Kina. Men for å fullt forstå hva som virkelig skjer, og hva det betyr for AI-investering og teknologiprogrammer i årene som kommer, må vi erkjenne at AI-æraen går inn i en ny fase av sin utvikling.

DeepSeeking sannheten

Verden kjenner nå all om DeepSeek, det kinesiske AI-selskapet som proklamerer hvordan de brukte inferensmotorer og statistisk resonnering for å trene store språkmodeller mye mer effektivt og med mindre kostnad enn andre selskaper har trenet sine modeller.

Spesifikt hevdet DeepSeek at deres teknikker resulterte i at de trengte langt færre GPUs (så få som 2 048 GPUs), samt mindre kraftfulle GPUs (Nvidia H800) enn de hundredtusener av premium-ytelses-GPUs (tenk Nvidia H100) som noen hyperskaleselskaper har trenget for å trene sine modeller. I terms of kostnadsbesparelse, mens OpenAI brukte milliarder av dollar på å trene ChatGPT, skal DeepSeek ifølge rapporter ha brukt så lite som 6,5 millioner dollar for å trene sin R1-modell.

Det bør bemerkes at mange eksperter har tvilt på DeepSeeks påstander om utgifter, men skaden var allerede gjort, da nyheten om deres forskjellige metoder drev en dypt fall i aksjeverdien til hyperskalerne og selskapene hvis GPUs de har brukt milliarder på å trene sine AI-modeller.

Likevel ble noen viktige punkter tapt i kaoset. Det ene var en forståelse av at DeepSeek ikke “oppfant” en ny måte å arbeide med AI på. Det andre er at mye av AI-økosystemet har vært godt klar over en forestående skifte i hvordan AI-investeringsdollarene må brukes, og hvordan AI selv vil bli satt i arbeid i årene som kommer.

Med hensyn til DeepSeeks metoder, er ideen om å bruke AI-inferensmotorer og statistisk resonnering ingen nyhet. Bruken av statistisk resonnering er et aspekt av den bredere konseptet om inferensmodell-resonnering, som innebærer at AI kan trekke slutninger basert på mønsterkjennelse. Dette er i stor grad likt den menneskelige evnen til å lære forskjellige måter å nærme seg et problem og sammenligne dem for å finne den beste mulige løsningen. Inferensbasert modellresonnering kan brukes i dag og er ikke eksklusiv for et kinesisk startup.

I mellomtiden har AI-økosystemet for en stund allerede vært klar over en grunnleggende endring i hvordan vi arbeider med AI og de regneskapsressursene som kreves. De første årene av AI-æraen har vært alt om det store arbeidet med å trene store AI-modeller på svært store datamengder, alle som krevde mye prosessering, komplekse beregninger, vektjusteringer og minneavhengighet. Etter at AI-modellene er trenet, endrer ting seg. AI kan bruke inferens til å anvende alt den har lært til nye datamengder, oppgaver og problemer. Inferens, som en mindre beregningsintens prosess enn trening, krever ikke like mange GPUs eller andre regneskapsressurser.

Den ultimate sannheten om DeepSeek er at selv om deres metoder ikke sjokkerte de fleste av oss i AI-økosystemet like mye som det gjorde for casualt interesserte aksjemarkedsinvestorer, viste det en av måtene hvorpå inferens vil være kjerne til den neste fasen av AI-utviklingen.

AI: Neste generasjon

Løftene og potensialet til AI har ikke endret seg. De pågående massive AI-investeringene fra de største hyperskalerne viser troen de har på den fremtidige verdien de kan låse opp fra AI, samt måtene AI kan endre hvordan nesten alle industrier arbeider, og hvordan nesten alle mennesker går om sine daglige liv.

Hva som har endret seg for disse hyperskalerne, er hvordan disse dollarene sannsynligvis vil bli brukt. I de første årene av AI-æraen, var de fleste investeringene nødvendigvis på trening. Hvis du tenker på AI som et barn, med en hjjerne som fortsatt er under utvikling, har vi brukt mye penger på å sende det til de beste skolene og universitetene. Nå er dette barnet en utdannet voksen – og det trenger å få en jobb for å støtte seg selv. I virkeligheten betyr det at vi har investert mye i å trene AI, og nå trenger vi å se avkastningen på denne investeringen ved å bruke AI til å generere ny inntekt.

For å oppnå denne avkastningen, trenger AI å bli mer effektiv og mindre kostbar for å hjelpe selskaper å maksimere sin markedstiltrekning og nytten for så mange applikasjoner som mulig. De mest lukrative nye tjenestene vil være de autonome som ikke krever menneskelig overvåking og styring.

For mange selskaper betyr det å utnytte ressurs-effektive AI-regne-teknikker, som inferensmodell-resonnering, for å raskt og kostnadseffektivt muliggjøre autonome maskin-til-maskin-kommunikasjoner. For eksempel i trådløs industri, kan AI brukes til å autonome analysere sanntidsdata om spektrumutnyttelse på et mobilnett for å optimere kanalbruk og minimere interferens mellom brukere, noe som til slutt tillater en mobiloperatør å støtte mer dynamisk spektrumdeling over hele nettverket. Denne typen mer effektiv, autonom AI-drevet maskin-til-maskin-kommunikasjon vil definere AI-s neste generasjon.

Som har vært tilfelle med hver andre stor regne-æra, fortsetter AI-regning å utvikle seg. Hvis historien om regning har lært oss noe, er det at ny teknologi alltid krever mye oppfront-investering, men kostnadene vil gå ned og effektiviteten vil gå opp når vi begynner å utnytte forbedrede teknikker og bedre praksis for å skape mer benefiske og rimelige produkter og tjenester for å tiltrekke seg de største mulige markedene. Innovasjon finner alltid en måte.

AI-sektoren kan ha nylig syntes å lide et tilbakeslag hvis du hører på AI-bjørnene, men dollarene hyperskalerne planlegger å bruke i år og den økende bruken av inferensbaserte teknikker forteller en annen historie: AI-regning er faktisk i endring, men AI-løftene er helt intakte.

Fernando gikk med i Digital Global Systems (DGS) i 2013 fra PriceWaterhouseCoopers hvor han hadde flere ledelsesstillinger i både USA og Latin-Amerika.

Fernando har vært i forkant av innovative investeringsmodeller for ledende teknologibedrifter; nye partnerskapsavtaler som bruker CAPEX-lette strukturer; og strategisk visjon for bedriftsverdi ved å utnytte nye teknologier og driftsstrukturer. I sine roller har Fernando bygget betydelig bedriftsverdi ved å bruke unike immaterielle eiendomsporteføljer og fremvoksende innovasjoner innen data, analyser og kunstig intelligens.