Thought leaders
De AI-boom heeft een beslissend midden bereikt: wat ondernemingen moeten weten

Junior high was nooit iemands beste periode – maar we moesten allemaal door deze fase heen, met alle groeipijnen die daarbij horen, om een betere, meer volwassen versie van onszelf te bereiken.
De huidige AI-boom is een soortgelijke moeilijke adolescentie ingegaan, iets wat experts de rommelige middengrond tussen adoptie en volwassenheid noemen. De initiële hype is weggeëbd, en nu richten organisaties zich op het echt operationeel maken van AI. Maar AI komt in een moeilijke tijd tot wasdom. Voorspellingen zijn overal, scepticisme is hoog onder zowel bedrijven als consumenten, en het gerucht over een uitdijende AI-bubbel houdt ondernemingsleiders aan het wankelen, in afwachting van de gevreesde plop.
Op dit beslissende moment moeten organisaties het signaal van de ruis onderscheiden – of ze nu hun inspanningen van experimentatie naar praktische toepassing omgooien, of praktische toepassing naar operationele alomtegenwoordigheid schalen. Dat vereist het focussen op tastbare factoren die ze kunnen beheersen, zoals hun infrastructuur en gegevensbereidheid; resultaten meten; en de basis leggen voor schaal.
De infrastructuur-eerst-benadering
Echte AI-gereedheid vereist de juiste infrastructuur om de duurzame inzet van AI-werkbelastingen te ondersteunen. Natuurlijk heeft AI de vraag naar clouddiensten verhoogd: clouduitgaven zullen naar verwachting met 40% toenemen dit jaar, met infrastructuur als het duurste item op de begroting, en nieuwe datacentra verschijnen op elk continent om de groeiende vraag naar AI-rekenkracht te accommoderen. Op dit AI-keerpunt zijn infrastructuurkeuzes existentieel. Infrastructuur definieert wat veilig is, wat mogelijk is en wat het bedrijf echt ten goede komt, in plaats van een drain op bronnen te creëren.
Duurzame infrastructuur wordt gedefinieerd door meer dan alleen kosten en totale rekenkracht. Wanneer organisaties bepalen waar en hoe ze hun AI-werkbelastingen zullen hosten, moeten ze rekening houden met kwesties van bronnen-efficiëntie, beveiliging, zichtbaarheid en overall prijs-prestatie. AI-infrastructuur kan geen eenmalige investering zijn, maar een proces in beweging, dat kan evolueren met de eisen van elk project.
Het is een scherpe afwijking van historische benaderingen van clouduitgaven. Voordat de huidige AI-rush, vertrouwden organisaties vaak op een enkele clouddienstverlener – meestal een hyperscaler – om hun cloud-gebaseerde operaties te hosten. Nu daagt de complexiteit en variëteit van AI-werkbelastingen dit model uit, vooral omdat ondernemingen naar meer praktische gebruikscases gaan en alternatieve clouds verschijnen om de vraag te accommoderen.
Moderne AI-initiatieven vereisen aanzienlijke rekenkracht, die de Big 3 goed kunnen bieden. De barsten beginnen te verschijnen wanneer al die kracht te veel wordt. Hyperscaler-contracten kunnen kostenprohibiterend zijn, opgeblazen met onnodige add-ons en bieden mogelijk geen vereiste gegevensbeveiliging en -residencie voor zeer gevoelige projecten.
In plaats van hun cloud-operaties aan een enkele leverancier te koppelen, kunnen ondernemingen profiteren van een groeiende klasse van alternatieven om hun eigen stacks samen te stellen over verschillende providers, GPU-typen en openbare/private cloud-instellingen op basis van hun specifieke behoeften. Zo betalen ze niet voor functies die ze niet nodig hebben, terwijl ze tegelijkertijd hun clouds aanpassen voor wat ze wel nodig hebben.
Een infrastructuur-eerst-benadering voor het bereiken van AI-volwassenheid gaat over het creëren van een stabiele basis voor schaal, die efficiëntie en nut maximaliseert zonder in te boeten aan kracht.
Van experimentatie naar toepassing
In de afgelopen jaren hebben bedrijven over de hele wereld geëxperimenteerd met hoe ze AI in hun operaties kunnen integreren. Gedreven door nieuwsgierigheid en niet zo’n kleine dosis hype, hebben ze de grenzen van innovatie verlegd, nieuwe mogelijkheden voor efficiëntie ontgrendeld en het potentieel van talloze open-source-tools en -modellen verhoogd. Ze zijn ook frontaal met de realiteit geconfronteerd, geleerd dat de filosofie van Silicon Valley “snel bewegen en dingen breken” niet altijd de manier is om te gaan, vooral niet bij een technologie als AI.
Nu ondernemingen uit deze experimentele fase komen, is falen geen optie. Accuraatheid is kritisch. Prestaties mogen niet achterblijven. Als ondernemingen hun kernbedrijfsfuncties op een AI-raamwerk willen herbouwen, moeten ze dubbel zo hard werken aan de “saaiere” delen die AI van een creatief experiment naar een multiplicator van kracht brengen, waaronder:
- Gegevensbeveiliging en -privacy: Veel AI-modellen gebruiken gevoelige persoonlijke en bedrijfsgegevens om effectief te functioneren. Organisaties moeten er zeker van zijn dat hun gegevens veilig worden gehost, zonder het risico van ongeautoriseerde replicatie of “donkere AI”-blootstelling.
- Modelleercyclusbewaking: Modellen moeten accuraat, up-to-date en regelmatig opnieuw getraind worden om kritieke bedrijfsfuncties te ondersteunen.
- Prestatieconsistentie: Of het nu gaat om het inzetten van modellen voor intern gebruik of in klantgerichte operaties, het waarborgen van consistente prestaties is kritisch voor efficiëntie en gebruiksgemak. Veel voorkomende prestatieproblemen, zoals die met vertraging en downtime, worden op het niveau van de infrastructuur opgelost.
Op dit moment zetten slechts 37% van de organisaties nieuwe generatieve modellen in op maandelijkse, wekelijkse of dagelijkse basis. Naarmate meer organisaties de toepassingsfase ingaan, zal dit percentage dramatisch toenemen, waardoor een grotere vraag naar rekenkracht ontstaat – maar ook naar infrastructuur aangepast aan specifieke modellen. Een “lichtgewicht”-model heeft geen hyperscaler-niveau-fundering nodig, maar als het gevoelige informatie gebruikt, kan het wel die mate van beveiliging nodig hebben. Hier komen aangepaste clouds om de hoek kijken – en waarom infrastructuur de primaire overweging moet zijn bij een ondernemings-AI-shift.
Van toepassing naar schaal
Voor bedrijven die verder zijn op de volwassenheidscurve, is de praktische toepassing van AI al onderdeel van hun dagelijkse activiteiten. Nu mikken ze op het schalen van deze toepassingen om nog meer waarde te creëren en hun onderneming volledig te laten evolueren.
De druk is hoog, en de voordelen zijn duidelijk: 81% van de organisaties op het hoogste niveau van AI-volwassenheid meldden betere financiële resultaten in het afgelopen jaar. Dit is de fase waarin AI-toepassingen hun grootste stress-test ondergaan. Ze kunnen de sniff-test doorstaan in een gecontroleerde omgeving, maar kunnen ze meer gegevens verwerken? Functioneren in nieuwe regio’s? En misschien het belangrijkste: kunnen ze significante resultaten opleveren?
Schaal is over het groter worden, maar in sommige gevallen is minder meer. Bedrijven in deze fase moeten overwegen of gerichte kleine-taalmodellen (SLM’s) beter kunnen presteren dan multi-doel grote-taalmodellen (LLM’s). AI-initiatieven zijn het meest succesvol wanneer ze zijn gekoppeld aan echte bedrijfsproblemen en meetbare resultaten kunnen opleveren.
Een soortgelijk patroon doet zich voor bij de toepassing en schaal van AI-agents – de volgende frontier van autonome AI. Agents die domeinspecifieke taken uitvoeren, geïnformeerd door een sterk gefocust, consistent onderhouden dataset, zijn degenen die echt impact maken in de onderneming. Dat gezegd hebbende, gespecialiseerde agents hebben nog steeds aanzienlijke rekenkracht nodig, hoewel niet zo veel als een allesomvattende, alles-kunnen-copilot. Prioriteit geven aan infrastructuur vanaf het begin zal organisaties in staat stellen om echte ROI uit hun agent-gebaseerde AI-initiatieven te halen zonder hun cloud-begrotingen te overschrijden.
Innovatie met impact
De AI-“race” is minder een race dan een renovatie: als we de onderneming opnieuw opbouwen, willen we dat doen op een stevige basis – anders komen de muren onherroepelijk naar beneden. Ondernemingen moeten de tijd nemen om zorgvuldig na te denken over infrastructuur, gegevensbeveiliging te waarborgen, modelleercyclussen nauwgezet te beheren, prestaties te monitoren en inzichten te verzamelen en aanpassingen te maken. Geduld en volharding zijn essentieel om oplossingen te creëren die echt werken, veilig blijven en consistent presteren.
De nieuwheid van de AI-hype-cyclus mag dan verdwijnen, maar ondernemingen kunnen door de rommelige middeljaren van AI heen komen door hun teams te energizeren met wat het meest telt: resultaten.












