Følg os

Tanke ledere

Hvad DeepSeek kan lære os om AI-omkostninger og -effektivitet

mm

Med sit søde hvallogo kunne den nylige udgivelse af DeepSeek ikke have betydet mere end endnu en ChatGPT-knockoff. Det, der gjorde det så nyhedsværdigt – og det, der fik konkurrenternes aktier til at gå i stå – var, hvor lidt det kostede at skabe. Det kastede effektivt en abenøgle ind i USA's forestilling om den investering, det kræver at træne en højfungerende Large Language Model (LLM).

DeepSeek brugte angiveligt kun 6 millioner dollars på at træne sin AI-model. Sæt det sammen med de rapporterede $80-$100 millioner, som OpenAI brugte på Chat GPT-4 eller den $1 milliard, de har afsat til GPT-5. DeepSeek sætter spørgsmålstegn ved dette investeringsniveau og efterlader store spillere som Nvidia – hvis akties værdi faldt 600 milliarder dollars på én dag – TSMC og Microsoft bekymrede over AI's langsigtede økonomiske levedygtighed. Hvis det er muligt at træne AI-modeller til væsentligt mindre end tidligere antaget, hvad betyder det så for AI-udgifterne generelt?

Selvom afbrydelsen af ​​DeepSeek har ført til vigtige diskussioner, ser det ud til, at nogle nøglepunkter forsvinder i shuffle. Men hvad nyheden bringer op, er et større fokus på, hvor meget innovation koster og den mulige økonomiske effekt af AI. Her er tre vigtige indsigter fra denne nyhed:

1. DeepSeeks pris pĂĄ $6 millioner er vildledende

Virksomheder skal forstå deres infrastrukturs samlede ejeromkostninger (TCO). Selvom DeepSeeks pris på 6 millioner dollars er blevet kastet meget rundt, er det sandsynligvis prisen på kun dets før-træningsløb snarere end hele investeringen. De samlede omkostninger – ikke kun ved at køre, men ved at bygge og træne DeepSeek – er sandsynligvis meget højere. Brancheanalytikerfirma Semi -analyse afslørede, at virksomheden bag DeepSeek brugte 1.6 milliarder dollars på hardware for at gøre deres LLM til virkelighed. Så den sandsynlige pris er et sted i midten.

Uanset hvad den sande pris er, har fremkomsten af ​​DeepSeek skabt et fokus på omkostningseffektiv innovation, der kunne være transformerende. Innovation er ofte ansporet af begrænsninger, og succesen med DeepSeek understreger den måde, innovation kan ske, når ingeniørteams optimerer deres ressourcer i lyset af begrænsninger i den virkelige verden.

2. Inferens er det, der gør AI værdifuld, ikke træning

Det er vigtigt at være opmærksom på, hvor meget AI-modeltræning koster, men træning repræsenterer en lille del af de samlede omkostninger til at bygge og køre en AI-model. Inferens — de mange måder, hvorpå AI ændrer, hvordan mennesker arbejder, interagerer og lever — er, hvor AI bliver virkelig værdifuld.

Dette bringer Jevons paradoks frem, en økonomisk teori, der foreslår, at efterhånden som teknologiske fremskridt gør brugen af ​​en ressource mere effektiv, kan det samlede forbrug af denne ressource faktisk stige. Med andre ord, efterhånden som uddannelsesomkostningerne falder, vil slutninger og agentforbrug stige, og det samlede forbrug vil følge trop.

AI-effektivitet kan faktisk føre til en stigende bølge af AI-udgifter, som burde løfte alle både, ikke kun kinesiske. Hvis vi antager, at de kører på effektivitetsbølgen, vil virksomheder som OpenAI og Nvidia også drage fordel af det.

3. Hvad der forbliver sandt er, at enhedsøkonomi betyder mest

At gøre kunstig intelligens mere effektiv handler ikke kun om at sænke omkostningerne; det handler også om at optimere enhedsøkonomien. The Motley Fool forudser, at dette år vil være året for AI-effektivitet. Hvis de har ret, bør virksomheder være opmærksomme på at sænke deres AI-uddannelsesomkostninger såvel som deres AI-forbrugsomkostninger.

Organisationer, der bygger eller bruger kunstig intelligens, har brug for at kende deres enhedsøkonomi i stedet for at udvælge imponerende tal som DeepSeeks $6 millioner uddannelsesomkostninger. Virkelig effektivitet indebærer at allokere alle omkostninger, spore AI-drevet efterspørgsel og konstant holde øje med cost-to-value.

Cloud unit Economics (CUE) har at gøre med måling og maksimering af profit drevet af skyen. CUE sammenligner dine cloudomkostninger med indtægts- og efterspørgselsmålinger og afslører, hvor effektive dine cloududgifter er, hvordan det har ændret sig over tid, og (hvis du har den rigtige platform) de bedste måder at øge effektiviteten på.

At forstå CUE har endnu større nytte i en AI-sammenhæng, da det i sagens natur er dyrere at forbruge end traditionelle cloud-tjenester, der sælges af hyperscalere. Virksomheder, der bygger agentapplikationer, kunne beregne deres pris pr. transaktion (f.eks. pris pr. regning, pris pr. levering, pris pr. handel osv.) og bruge dette til at vurdere investeringsafkastet for specifikke AI-drevne tjenester, produkter og funktioner. Efterhånden som AI-udgifterne stiger, vil virksomheder blive tvunget til at gøre dette; ingen virksomhed kan kaste endeløse penge på eksperimentel innovation for evigt. Til sidst skal det give forretningsmæssig mening.

Mod større effektivitet

Uanset hvor meningsfuldt tallet på 6 millioner dollars er, kan DeepSeek have givet et skelsættende øjeblik, der vækker teknologiindustrien til den uundgåelige betydning af effektivitet. Lad os håbe, at dette åbner sluserne for omkostningseffektive trænings-, inferens- og agentapplikationer, der frigør AIs sande potentiale og ROI.

Phil Pergola er administrerende direktør for CloudZero. Han er en dygtig B2B-softwareleder med erfaring med at drive betydelig omsætningsvækst og positive forretningsresultater pĂĄ tværs af hele kundens livscyklus – erhvervelse, onboarding, adoption, udvidelse og fastholdelse.