Thought leaders
Wat DeepSeek ons kan leren over AI-kosten en -efficiëntie
Met zijn schattige walvishaai-logo had de recente release van DeepSeek niets meer kunnen zijn dan nog een ChatGPT-kloon. Wat het zo newsworthy maakte – en wat de aandelen van concurrerende bedrijven in een neerwaartse spiraal stortte – was hoe weinig het kostte om het te creëren. Het wierp effectief een spaak in het wiel van het Amerikaanse idee van de investering die nodig is om een high-functioning Large Language Model (LLM) te trainen.
DeepSeek zou naar verluidt slechts $6 miljoen hebben uitgegeven om zijn AI-model te trainen. Vergelijk dit met de $80–$100 miljoen die OpenAI voor Chat GPT-4 heeft uitgegeven of de $1 miljard die ze hebben gereserveerd voor GPT-5. DeepSeek roept dat niveau van investering in twijfel en laat grote spelers als Nvidia – wiens aandelenwaarde in één dag met $600 miljard daalde – TSMC en Microsoft bezorgd over de langetermijnfinanciële levensvatbaarheid van AI. Als het mogelijk is om AI-modellen te trainen voor aanzienlijk minder dan eerder aangenomen, wat betekent dit dan voor de totale AI-uitgaven?
Hoewel de verstoring van DeepSeek tot belangrijke discussies heeft geleid, lijken sommige belangrijke punten verloren te gaan in de chaos. Het nieuws roept echter een grotere focus op op hoeveel innovatie kost en de mogelijke economische impact van AI. Hier zijn drie belangrijke inzichten die voortkomen uit dit nieuws:
1. De $6 miljoen prijskaartje van DeepSeek is misleidend
Bedrijven moeten hun totale kosten van eigendom (TCO) begrijpen. Hoewel de $6 miljoen prijskaartje van DeepSeek veel wordt genoemd, is dit waarschijnlijk de kosten van slechts zijn pre-training run en niet van zijn totale investering. De totale kosten – niet alleen van het uitvoeren, maar van het bouwen en trainen van DeepSeek – zijn waarschijnlijk veel hoger. Het industrieanalistenbureau SemiAnalysis onthulde dat het bedrijf achter DeepSeek $1,6 miljard heeft uitgegeven aan hardware om zijn LLM tot werkelijkheid te maken. Dus de waarschijnlijke kosten liggen ergens in het midden.
Wat de werkelijke kosten ook zijn, de komst van DeepSeek heeft een focus op kostenefficiënte innovatie gecreëerd die transformatief kan zijn. Innovatie wordt vaak aangewakkerd door beperkingen, en het succes van DeepSeek benadrukt de manier waarop innovatie kan plaatsvinden wanneer engineersteams hun middelen optimaliseren in het gezicht van echte wereldbeperkingen.
2. Inference is wat AI waardevol maakt, niet training
Het is belangrijk om te letten op hoeveel AI-modeltraining kost, maar training vertegenwoordigt een klein deel van de totale kosten om een AI-model te bouwen en uit te voeren. Inference — de veelvoudige manieren waarop AI de manier waarop mensen werken, interactie hebben en leven verandert — is waar AI echt waardevol wordt.
Dit roept de Jevons-paradox op, een economische theorie die suggereert dat naarmate technologische vooruitgang het gebruik van een resource efficiënter maakt, het totale verbruik van die resource mogelijk zelfs kan toenemen. Met andere woorden, naarmate de trainingskosten dalen, zal de inference en agentic consumptie toenemen, en de totale uitgaven zullen volgen.
AI-efficiëntie kan in feite leiden tot een stijging van de AI-uitgaven, wat alle boten zou moeten liften, niet alleen Chinese. Als ze de efficiëntiegolf berijden, zullen bedrijven als OpenAI en Nvidia ook profiteren.
3. Wat waar blijft is dat unit economics het meest belangrijk zijn
AI meer efficiënt maken is niet alleen maar een kwestie van kosten verlagen; het gaat ook om het optimaliseren van unit economics. The Motley Fool voorspelt dat dit jaar het jaar van AI-efficiëntie zal zijn. Als ze gelijk hebben, moeten bedrijven letten op het verlagen van hun AI-trainingskosten en hun AI-consumptiekosten.
Organisaties die AI bouwen of gebruiken, moeten hun unit economics kennen en niet alleen indrukwekkende cijfers zoals de $6 miljoen trainingskosten van DeepSeek benadrukken. Echte efficiëntie houdt in dat alle kosten worden toegewezen, AI-gedreven vraag wordt bijgehouden en constant tabs worden gehouden op kosten-tot-waarde.
Cloud unit economics (CUE) heeft te maken met het meten en maximaliseren van winst die wordt aangedreven door de cloud. CUE vergelijkt uw cloudkosten met omzet- en vraagmetrieken, waardoor wordt onthuld hoe efficiënt uw clouduitgaven zijn, hoe dat is veranderd over tijd en (als u het juiste platform heeft) de beste manieren om die efficiëntie te verhogen.
Het begrijpen van CUE heeft nog meer nut in een AI-context, gezien het inherent duurder is om AI te consumeren dan traditionele cloudservices die worden verkocht door de hyperscalers. Bedrijven die agentic toepassingen bouwen, kunnen hun kost per transactie (bijv. kost per factuur, kost per levering, kost per transactie, enz.) berekenen en dit gebruiken om de return on investment van specifieke AI-gedreven diensten, producten en functies te beoordelen. Naarmate de AI-uitgaven toenemen, zullen bedrijven gedwongen worden dit te doen; geen enkel bedrijf kan eindeloos dollars uitgeven aan experimentele innovatie. Uiteindelijk moet het zaken zijn.
Naar grotere efficiëntie
Hoe betekenisvol het $6 miljoen cijfer ook is, DeepSeek kan een keerpunt hebben geboden dat de technologie-industrie wakker maakt voor het onvermijdelijke belang van efficiëntie. Laten we hopen dat dit de poorten opent voor kostenefficiënte training, inference en agentic toepassingen die het ware potentieel en de ROI van AI ontsluiten.












