Thought leaders
Mega-modellen zijn niet de oorzaak van de compute-crisis

Elke keer als een nieuw AI-model wordt uitgebracht – GPT-updates, DeepSeek, Gemini – staan mensen versteld van de enorme omvang, de complexiteit en steeds vaker de compute-honger van deze mega-modellen. De aanname is dat deze modellen de resourcing-behoeften van de AI-revolutie definiëren.
Die aanname is onjuist.
Ja, grote modellen zijn compute-hongerig. Maar de grootste belasting op AI-infrastructuur komt niet van een handvol mega-modellen – het komt van de stille proliferatie van AI-modellen in verschillende branches, elk afgestemd op specifieke toepassingen, elk verbruikend compute op een ongekende schaal.
Ondanks de potentiële winnaar-neemt-alles-competitie die zich ontwikkelt onder de LLM’s, centraliseert de AI-landschap niet – het fragmenteert. Elk bedrijf gebruikt niet alleen AI – ze trainen, personaliseren en implementeren privé-modellen aangepast aan hun behoeften. Het is de laatste situatie die een infrastructuur-vraagcurve zal creëren waar cloud-aanbieders, ondernemingen en overheden niet op voorbereid zijn.
We hebben dit patroon eerder gezien. Cloud consolideerde IT-werklasten niet; het creëerde een uitgebreid hybride ecosysteem. Eerst was het server-sprawl. Toen VM-sprawl. Nu? AI-sprawl. Elke golf van computing leidde tot proliferatie, niet tot vereenvoudiging. AI is geen uitzondering.
AI-sprawl: Waarom de toekomst van AI een miljoen modellen is, niet één
Financiën, logistiek, cybersecurity, klantenservice, R&D – elk heeft zijn eigen AI-model geoptimaliseerd voor zijn eigen functie. Organisaties trainen niet één AI-model om hun hele operatie te regelen. Ze trainen duizenden. Dat betekent meer trainingscycli, meer compute, meer opslagvraag en meer infrastructuur-sprawl.
Dit is geen theorie. Zelfs in branches die traditioneel voorzichtig zijn met technologie-adoptie, versnelt AI-investering. Een rapport van McKinsey uit 2024 vond dat organisaties nu AI gebruiken in gemiddeld drie bedrijfsfuncties, met manufacturing, supply chain en productontwikkeling die de charge leiden (McKinsey).
Gezondheidszorg is een voorbeeld. Navina, een startup die AI integreert in elektronische gezondheidsdossiers om klinische inzichten te bieden, heeft zojuist 55 miljoen dollar opgehaald in Series C-financiering van Goldman Sachs (Business Insider). Energie is geen uitzondering – industrieleiders hebben de Open Power AI Consortium gelanceerd om AI-optimalisatie te brengen naar grid- en plantoperaties (Axios).
De compute-druk waar niemand over praat
AI breekt al traditionele infrastructuurmodellen. De aanname dat cloud oneindig kan schalen om AI-groei te ondersteunen is doodsbang wrong. AI schaalt niet zoals traditionele workloads. De vraagcurve is niet geleidelijk – het is exponentieel, en hyperscalers houden geen gelijke tred.
- Stroombeperkingen: AI-specifieke datacenters worden nu gebouwd rond stroombeschikbaarheid, niet alleen netwerkbackbones.
- Netwerkknelpunten: Hybride IT-omgevingen worden onbeheersbaar zonder automatisering, die AI-werklasten alleen maar zal verergeren.
- Economische druk: AI-werklasten kunnen miljoenen verbruiken in één maand, waardoor financiële onvoorspelbaarheid ontstaat.
Datacenters verbruiken al 1% van het wereldwijde elektriciteitsverbruik. In Ierland verbruiken ze nu 20% van het nationale net, een aandeel dat naar verwachting aanzienlijk zal stijgen tegen 2030 (IEA).
Voeg daarbij de naderende druk op GPUs. Bain & Company waarschuwde onlangs dat AI-groei het toneel zet voor een halfgeleider tekort, aangedreven door explosieve vraag naar datacenter-grade chips (Bain).
Ondertussen groeit het duurzaamheidsprobleem van AI. Een analyse uit 2024 in Sustainable Cities and Society waarschuwde dat de bredere adoptie van AI in de gezondheidszorg het energieverbruik en de koolstofemissies van de sector aanzienlijk kan verhogen, tenzij dit wordt gecompenseerd door gerichte efficiëntie (ScienceDirect).
AI-sprawl is groter dan de markt – het is een kwestie van staatmacht
Als je denkt dat AI-sprawl een bedrijfsprobleem is, denk dan nog eens na. De meest significante driver van AI-fragmentatie is niet de private sector – het zijn overheden en militaire defensie-agentschappen, die AI implementeren op een schaal die geen hyperscaler of onderneming kan evenaren.
De Amerikaanse overheid alleen heeft AI geïmplementeerd in meer dan 700 toepassingen over 27 agentschappen, waaronder inlichtingenanalyse, logistiek en meer (FedTech Magazine).
Canada investeert tot 700 miljoen dollar om de nationale AI-compute-capaciteit uit te breiden, met het lanceren van een nationale uitdaging om soevereine datacenter-infrastructuur te versterken (Innovation, Science and Economic Development Canada).
En er zijn steeds meer oproepen voor een “Apollo-programma” voor AI-infrastructuur – het benadrukt de verheffing van AI van commercieel voordeel naar nationale noodzaak (MIT Technology Review).
Militaire AI zal niet efficiënt, gecoördineerd of geoptimaliseerd zijn voor kosten – het zal worden aangedreven door nationale veiligheidsmandaat, geopolitieke urgentie en de noodzaak voor gesloten, soevereine AI-systemen. Zelfs als ondernemingen AI-sprawl intomen, wie gaat de overheden vertellen om te vertragen?
Omdat wanneer nationale veiligheid op het spel staat, niemand stopt om te vragen of het stroomnet het aankan.












