Verbind je met ons

Gedachte leiders

Wat DeepSeek ons ​​kan leren over AI-kosten en -efficiëntie

mm

Met zijn schattige walvislogo had de recente release van DeepSeek niets meer kunnen zijn dan een zoveelste ChatGPT-kloon. Wat het zo nieuwswaardig maakte – en wat de aandelen van concurrenten in een neerwaartse spiraal deed belanden – was hoe weinig het kostte om te maken. Het gooide effectief roet in het eten van de Amerikaanse notie van de investering die nodig is om een ​​goed functionerend Large Language Model (LLM) te trainen.

DeepSeek zou slechts $ 6 miljoen hebben uitgegeven om zijn AI-model te trainen. Vergelijk dat met de gerapporteerde $ 80-$ 100 miljoen die OpenAI heeft uitgegeven aan Chat GPT-4 of de $ 1 miljard die ze hebben gereserveerd voor GPT-5. DeepSeek trekt dat investeringsniveau in twijfel en laat grote spelers als Nvidia - wiens aandelenwaarde in één dag met $ 600 miljard daalde - TSMC en Microsoft zich zorgen maken over de financiële levensvatbaarheid van AI op de lange termijn. Als het mogelijk is om AI-modellen te trainen voor aanzienlijk minder dan eerder werd aangenomen, wat voorspelt dit dan voor AI-uitgaven in het algemeen?

Hoewel de verstoring van DeepSeek tot belangrijke discussies heeft geleid, lijken sommige belangrijke punten in de shuffle verloren te gaan. Wat het nieuws echter naar voren brengt, is een grotere focus op hoeveel innovatie kost en de mogelijke economische impact van AI. Hier zijn drie belangrijke inzichten die uit dit nieuws voortkomen:

1. Het prijskaartje van $ 6 miljoen van DeepSeek is misleidend

Bedrijven moeten de totale eigendomskosten (TCO) van hun infrastructuur begrijpen. Hoewel het prijskaartje van $ 6 miljoen van DeepSeek vaak is genoemd, is dat waarschijnlijk de prijs van alleen de pre-trainingsrun in plaats van de volledige investering. De totale kosten - niet alleen van het runnen, maar ook van het bouwen en trainen van DeepSeek - zijn waarschijnlijk veel hoger. Branche-analistenbureau Semi-analyse onthulde dat het bedrijf achter DeepSeek $ 1.6 miljard aan hardware heeft uitgegeven om zijn LLM werkelijkheid te maken. De waarschijnlijke kosten liggen dus ergens in het midden.

Wat de werkelijke kosten ook zijn, de komst van DeepSeek heeft een focus gecreëerd op kostenefficiënte innovatie die transformationeel zou kunnen zijn. Innovatie wordt vaak aangewakkerd door beperkingen, en het succes van DeepSeek onderstreept de manier waarop innovatie kan plaatsvinden wanneer engineeringteams hun middelen optimaliseren in het licht van beperkingen in de echte wereld.

2. Inferentie is wat AI waardevol maakt, niet training

Het is belangrijk om te letten op de kosten voor het trainen van een AI-model. De training vertegenwoordigt echter slechts een klein deel van de totale kosten voor het bouwen en uitvoeren van een AI-model. Gevolgtrekking — de vele manieren waarop AI de manier verandert waarop mensen werken, met elkaar omgaan en leven — is waar AI echt waardevol wordt.

Dit brengt ons bij de Jevons-paradox, een economische theorie die suggereert dat naarmate technologische vooruitgang het gebruik van een resource efficiënter maakt, de totale consumptie van die resource feitelijk kan toenemen. Met andere woorden, naarmate de trainingskosten dalen, zullen inferentie en agentische consumptie toenemen en zullen de totale uitgaven volgen.

AI-efficiëntie kan in feite leiden tot een stijgende golf van AI-uitgaven, die alle boten zou moeten laten stijgen, niet alleen de Chinese. Ervan uitgaande dat ze op de efficiëntiegolf meeliften, zullen bedrijven als OpenAI en Nvidia er ook van profiteren.

3. Wat waar blijft, is dat eenheidseconomie het belangrijkst is

AI efficiënter maken gaat niet alleen om het verlagen van kosten; het gaat ook om het optimaliseren van unit economics. The Motley Fool voorspelt dat dit jaar het jaar van AI-efficiëntieAls ze gelijk hebben, moeten bedrijven aandacht besteden aan het verlagen van hun AI-trainingskosten en hun AI-consumptiekosten.

Organisaties die AI bouwen of gebruiken, moeten hun unit economics kennen in plaats van indrukwekkende cijfers te noemen, zoals de $ 6 miljoen trainingskosten van DeepSeek. Echte efficiëntie houdt in dat alle kosten worden toegewezen, de door AI aangestuurde vraag wordt bijgehouden en de cost-to-value voortdurend in de gaten wordt gehouden.

Cloud unit economics (CUE) gaat over het meten en maximaliseren van winst die door de cloud wordt aangestuurd. CUE vergelijkt uw cloudkosten met inkomsten- en vraagstatistieken, en laat zien hoe efficiënt uw clouduitgaven zijn, hoe dat in de loop van de tijd is veranderd en (als u het juiste platform hebt) de beste manieren om die efficiëntie te verhogen.

Het begrijpen van CUE is nog nuttiger in een AI-context, aangezien het inherent duurder is om te consumeren dan traditionele cloudservices die door de hyperscalers worden verkocht. Bedrijven die agentische applicaties bouwen, kunnen hun kosten per transactie berekenen (bijv. kosten per factuur, kosten per levering, kosten per transactie, enz.) en dit gebruiken om het rendement op investering van specifieke AI-gestuurde services, producten en functies te beoordelen. Naarmate AI-uitgaven toenemen, zullen bedrijven gedwongen worden dit te doen; geen enkel bedrijf kan eindeloos geld uitgeven aan experimentele innovatie. Uiteindelijk moet het zakelijk zinvol zijn.

Op weg naar meer efficiëntie

Hoe betekenisvol het bedrag van $ 6 miljoen ook is, DeepSeek heeft mogelijk een keerpunt gecreëerd dat de tech-industrie wakker schudt voor het onvermijdelijke belang van efficiëntie. Laten we hopen dat dit de sluizen opent voor kosteneffectieve training, inferentie en agentische toepassingen die het ware potentieel en de ROI van AI ontsluiten.

Phil Pergola is CEO van CloudZero. Hij is een ervaren B2B-softwaremanager met ervaring in het realiseren van een aanzienlijke omzetgroei en positieve bedrijfsresultaten gedurende de gehele levenscyclus van de klant: acquisitie, onboarding, adoptie, uitbreiding en behoud.