Thought leaders
De AI-boom is niet geïmplodeerd, maar AI-computing verandert zeker

Wees niet te bang voor de AI-beren. Zij twijfelen hardop of de grote boom in AI-investeringen al voorbij is, of een grote marktactiviteit en uitgaven aan enorme AI-trainingsystemen die worden aangedreven door meerdere high-performance GPUs, zichzelf heeft uitgespeeld, en of de verwachtingen voor de AI-tijdperk radicaal moeten worden teruggeschroefd.
Maar als je een nauwere blik werpt op de plannen van de grote hyperscalers, is AI-investering springlevend. Meta, Amazon, Microsoft en Google hebben allemaal onlangs hun inzet voor AI-technologie verdubbeld. Hun collectieve toezegging voor 2025 bedraagt meer dan $300 miljard, volgens een recent verhaal in de Financial Times. Microsoft CEO Satya Nadella zei dat Microsoft alleen al $80 miljard kan uitgeven aan AI dit jaar. Meta-oprichter en CEO Mark Zuckerberg zei op Facebook: “We zijn van plan $60-65 miljard te investeren in capex dit jaar, en we hebben het kapitaal om in de komende jaren te blijven investeren in AI.”
Dit is niet het geluid van een AI-boom die implodeert, maar er is een groeiende onrust over hoeveel geld wordt uitgegeven aan het mogelijk maken van AI-toepassingen. Na minstens twee jaar waarin technologiebedrijven zeiden dat ze een duidelijke vraag zagen naar meer rekenkracht om grote AI-modellen te trainen, is 2025 begonnen met het feit dat deze bedrijven elke dag door het zakenblad op de mat worden geroepen vanwege de opbouw van zoveel AI-hype.
Waarom is er zo’n plotselinge verschuiving van hoop naar bezorgdheid? Het antwoord kan deels worden gevonden in de snelle opkomst van een nieuwe AI-toepassing uit China. Maar om volledig te begrijpen wat er echt gebeurt, en wat het betekent voor AI-investeringen en technologieprogramma’s in de komende jaren, moeten we erkennen dat de AI-tijdperk een nieuwe fase van zijn evolutie ingaat.
Diep zoeken naar de waarheid
Inmiddels weet de hele wereld alles over DeepSeek, het Chinese AI-bedrijf dat vertelt hoe het gebruikte inferentie-motoren en statistische redenering om grote taalmodellen veel efficiënter en met minder kosten te trainen dan andere bedrijven hun modellen hebben getraind.
In het bijzonder beweerde DeepSeek dat zijn technieken resulteerden in het feit dat het veel minder GPUs (slechts 2.048 GPUs) en minder krachtige GPUs (Nvidia H800s) nodig had dan de honderdduizenden premium-prestatie-GPUs (denk aan Nvidia H100s) die sommige hyperscale-bedrijven nodig hadden om hun modellen te trainen. Wat betreft de kostenbesparingen, terwijl OpenAI miljarden dollars uitgaf aan het trainen van ChatGPT, zou DeepSeek volgens rapporten zo weinig als $6,5 miljoen hebben uitgegeven om zijn R1-model te trainen.
Het moet worden opgemerkt dat veel deskundigen de uitgavenclaims van DeepSeek in twijfel hebben getrokken, maar de schade was al aangericht, aangezien het nieuws over zijn verschillende methoden een diepe daling van de aandelenkoersen van de hyperscalers en de bedrijven wiens GPUs ze miljarden hebben uitgegeven om hun AI-modellen te trainen, veroorzaakte.
Er waren echter een paar belangrijke punten die verloren gingen in de chaos. Eentje was het begrip dat DeepSeek geen nieuwe manier had uitgevonden om met AI te werken. De tweede is dat een groot deel van het AI-ecosysteem al lang bewust was van een aanstaande verschuiving in hoe AI-investeringsdollars moeten worden uitgegeven, en hoe AI zelf in de komende jaren zal worden ingezet.
Wat betreft de methoden van DeepSeek, is het idee om AI-inferentie-motoren en statistische redenering te gebruiken niets nieuws. Het gebruik van statistische redenering is een aspect van het bredere concept van inferentie-modelredenering, dat inhoudt dat AI inferences kan trekken op basis van patroonherkenning. Dit is in wezen vergelijkbaar met de menselijke capaciteit om verschillende manieren van benadering van een probleem te leren en deze te vergelijken om de beste mogelijke oplossing te vinden. Inferentie-gebaseerde modelredenering kan vandaag worden gebruikt en is niet exclusief voor een Chinees startup.
Ondertussen was het AI-ecosysteem al enige tijd aan het anticiperen op een fundamentele verandering in hoe we met AI en de benodigde rekenbronnen werken. De eerste jaren van de AI-tijdperk zijn allemaal over het grote werk van het trainen van grote AI-modellen op zeer grote datasets, die allemaal veel verwerking, complexe berekeningen, gewichtsaanpassingen en geheugengebruik vereisten. Nadat AI-modellen zijn getraind, verandert alles. AI kan inferentie gebruiken om alles wat het heeft geleerd toe te passen op nieuwe datasets, taken en problemen. Inferentie, als een minder computationeel intensief proces dan trainen, vereist niet zo veel GPUs of andere rekenbronnen.
De uiteindelijke waarheid over DeepSeek is dat, hoewel zijn methoden de meesten van ons in het AI-ecosysteem niet zo veel hebben verrast als het de casual geïnteresseerde aandeelhouders heeft gedaan, het wel een van de manieren heeft benadrukt waarop inferentie centraal zal staan in de volgende fase van de evolutie van AI.
AI: de volgende generatie
De belofte en het potentieel van AI zijn niet veranderd. De voortdurende massale AI-investeringen door de grote hyperscalers laten zien dat ze vertrouwen hebben in de toekomstige waarde die ze kunnen ontgrendelen van AI, evenals de manieren waarop AI bijna elke industrie kan veranderen, en hoe bijna alle mensen hun dagelijks leven leiden.
Wat is veranderd voor die hyperscalers, is hoe die dollars waarschijnlijk zullen worden uitgegeven. In de eerste jaren van de AI-tijdperk was de meeste investering noodzakelijkerwijs op training gericht. Als je aan AI denkt als een kind, met een geest die nog in ontwikkeling is, hebben we veel geld uitgegeven om het naar de beste scholen en universiteiten te sturen. Nu is dat kind een opgeleide volwassene – en het moet een baan krijgen om zichzelf te ondersteunen. In werkelijke zin hebben we veel geïnvesteerd in AI-training, en nu moeten we de terugverdientijd van die investering zien door AI te gebruiken om nieuwe inkomsten te genereren.
Om die terugverdientijd te behalen, moet AI efficiënter en minder duur worden om bedrijven te helpen de marktwaarde en het nut van AI voor zoveel mogelijk toepassingen te maximaliseren. De meest lucratieve nieuwe diensten zullen de autonome diensten zijn die geen menselijke monitoring en beheer vereisen.
Voor veel bedrijven betekent dit het gebruik van resource-efficiënte AI-computertechnieken, zoals inferentie-modelredenering, om autonome machine-tot-machine-communicatie snel en kostenefficiënt mogelijk te maken. Bijvoorbeeld, in de draadloze industrie kan AI worden gebruikt om autonoom real-time gegevens over spectrumgebruik op een mobiel netwerk te analyseren om kanaalgebruik te optimaliseren en storing tussen gebruikers te mitigeren, wat uiteindelijk een mobiele operator in staat stelt om dynamische spectraalverdeling over zijn netwerk te ondersteunen. Dit type meer efficiënte, autonome AI-gebaseerde machine-tot-machine-communicatie zal de volgende generatie van AI definiëren.
Zoals het geval is geweest met elke andere grote computertijdperk, evolueert AI-computing voortdurend. Als de geschiedenis van computing ons iets heeft geleerd, is het dat nieuwe technologie altijd veel voorafgaande investeringen vereist, maar de kosten zullen dalen en de efficiëntie zal toenemen naarmate we beginnen met het gebruik van verbeterde technieken en betere praktijken om meer voordelige en betaalbare producten en diensten te creëren om zo groot mogelijke markten aan te spreken. Innovatie vindt altijd een manier.
De AI-sector kan onlangs een terugslag hebben geleden als je naar de AI-beren luistert, maar de dollars die de hyperscalers van plan zijn uit te geven dit jaar en het toenemende gebruik van inferentie-gebaseerde technieken vertellen een ander verhaal: AI-computing verandert inderdaad, maar de belofte van AI is volledig intact.












