Connect with us

Thought leaders

Waarom Gereguleerde AI de Volgende Frontier op de Werkplek Is

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

We hebben een decennium besteed aan het bestrijden van shadow IT. Niet-geautoriseerde SaaS-apps. Rogue spreadsheets. Niet-geautoriseerde Dropbox-accounts. IT-leiders hebben complete compliance-programma’s opgebouwd rondom dit probleem, en de meesten hebben nog steeds verloren. Reco AI’s 2025 State of Shadow AI Report vond dat slechts 47% van de SaaS-toepassingen binnen het gemiddelde bedrijf formeel is geautoriseerd — en het gemiddelde bedrijf beheert nu 490 van deze toepassingen.

Dat was het oude probleem. Het nieuwe probleem is erger.

Het Shadow AI-probleem Is Deze Keer Anders

Wanneer een medewerker zich aanmeldt voor een niet-geautoriseerd projectmanagementhulpmiddel, is de schade beperkt. Een teams taken leven in de verkeerde plek. Misschien lekt er wat gegevens. Het type gegevenslekt is redelijk voorspelbaar.

AI is anders. Medewerkers gebruiken nu AI-hulpmiddelen om klantcommunicatie te schrijven, financiële rapporten te genereren, vertrouwelijke vergaderingen samen te vatten en geautomatiseerde workflows te bouwen, vaak zonder iemand te vertellen. Microsoft’s 2024 Work Trend Index vond dat 78% van de AI-gebruikers hun eigen AI-hulpmiddelen meenemen naar het werk. Niet omdat ze moeilijk of nefast willen zijn, maar omdat de hulpmiddelen echt nuttig zijn en ze de druk voelen om beter te presteren. Toch zijn hun organisaties te langzaam om processen, procedures en hulpmiddelen te bieden.

De uitvoer hier is het probleem. Wanneer een AI-hulpmiddel een klantcontract opstelt, een juridische oproep samenvat of een kwartaalrapport voor de raad van bestuur genereert, is het risico niet alleen “we weten niet welk hulpmiddel ze gebruikten.” Het is dat de gegevenspraktijken, nauwkeurigheid en besluitvorming die in die uitvoer zijn ingebed, volledig onzichtbaar zijn voor de organisatie. Niemand heeft de prompt beoordeeld. Niemand heeft het resultaat geverifieerd. Niemand weet zelfs maar dat het is gebeurd. En omdat AI zo zelfverzekerd lijkt, zullen de meeste gebruikers de bronnen niet controleren en blindelings de resultaten accepteren.

KPMG’s 2025-analyse van shadow AI meldde dat 44% van de medewerkers die AI op het werk gebruiken, dit op een manier hebben gedaan die in strijd is met het beleid en de richtlijnen van hun bedrijf. Dat is geen randgedrag. Dat is bijna de helft van de beroepsbevolking.

Waarom Autonome Agenten Dit Moeilijker Maken (en Beter)

Hier wordt het gesprek interessant. We praten niet meer alleen over medewerkers die tekst in ChatGPT plakken. We betreden de era van AI-agenten — autonome systemen die continu kunnen draaien, meerdere taken kunnen uitvoeren, verbinding kunnen maken met bedrijfshulpmiddelen en actie kunnen ondernemen zonder dat een mens bij elke beslissing betrokken is.

Deloitte’s 2025 Tech Trends-rapport beschrijft dit als de verschuiving naar een “silicon-based workforce” en merkt op dat veel vroege agentic AI-implementaties precies falen omdat organisaties proberen bestaande processen te automatiseren die zijn ontworpen voor mensen, in plaats van na te denken over hoe het werk zou moeten verlopen.

Dit is de splitsing in de weg. Autonome AI kan twee kanten op gaan;

Pad één: meer shadow IT, maar erger. Medewerkers zetten agenten op met persoonlijke accounts, draaien ze op bedrijfs-IT, verbinden ze met bedrijfshulpmiddelen via persoonlijke API-sleutels, genereren uitvoer die niemand anders op het team kan zien, controleren of reproduceren. De agent draait een dagelijkse rapport. Het rapport is verkeerd. Niemand merkt het voor weken op omdat niemand anders wist dat het bestond. Dit is geen hypothetisch scenario. Het gebeurt nu in organisaties die AI-adoptie behandelen als een individueel productiviteitsaspect.

Pad twee: gereguleerde autonomie. Dezelfde agent draait hetzelfde dagelijkse rapport — maar binnen een omgeving waar het team kan zien wat het doet, welke gegevens het aanraakt, wie het heeft ingesteld en wat het heeft geproduceerd. De agent is gedeeld, niet geïsoleerd. De uitvoer is zichtbaar. De machtigingen zijn beperkt. En wanneer er iets misgaat, is er een spoor.

Het verschil tussen deze twee paden is niet de technologie. Het is de omgeving.

Hoe Gereguleerde AI Er in de Praktijk Uitziet

Governance is een van die woorden die ontwikkelaars doen huiveren. Het betekent meestal “langzaam”. Meer goedkeuringen. Meer proces. Meer wrijving tussen de mensen die het werk doen en de mensen die het risico beheren.

Maar gereguleerde AI hoeft niet zo te werken. De beste implementaties die ik heb gezien, delen een aantal kenmerken;

Zichtbaarheid als standaard. Elke AI-gegenereerde uitvoer — elk rapport, elke waarschuwing, elke ontwerp — is zichtbaar voor het team, niet begraven in iemands persoonlijke chatgeschiedenis. Dit gaat niet over surveillance. Het gaat over gedeelde context. Wanneer een agent een wekelijks concurrerend onderzoek produceert, moet het hele team het kunnen zien, in twijfel trekken en erop voortborduren.

Beperkte machtigingen, geen blanco toegang. Een agent die uw foutenlogbestanden bewaakt, heeft geen toegang tot uw CRM nodig. Een agent die sociale inhoud ontwerpt, heeft geen toegang tot uw financiële gegevens nodig. Het principe van het minste privilege is niet nieuw. Het wordt alleen zelden toegepast op AI-systemen — en dat zou het wel moeten zijn.

Audit-sporen die daadwerkelijk bestaan. McKinsey’s playbook over agentic AI-beveiliging benadrukt dat autonome agenten “een reeks nieuwe en complexe risico’s en kwetsbaarheden presenteren die nu aandacht en actie nodig hebben.” Een van de meest basale: als u niet kunt traceren wat een agent heeft gedaan, welke gegevens het heeft benaderd en welke beslissingen het heeft genomen, kunt u het niet beheren. Punt.

Waar Organisaties het Goed Doen

De bedrijven die AI-agenten goed inzetten, zijn niet die met de meest geavanceerde modellen. Het zijn die met de duidelijkste operationele grenzen.

Ik zie de sterkste resultaten in drie gebieden;

Rapportage en bewaking. Agenten die geplande rapporten uitvoeren — dagelijkse stand-ups, wekelijkse metrieksamenvattingen, foutenlogbestandextracten — en deze rechtstreeks in teamkanalen leveren. De waarde hier is niet alleen automatisering. Het is consistent. Het rapport wordt elke ochtend uitgevoerd, of iemand nu de gegevens ophaalt of niet. En omdat het zichtbaar is voor het team, worden fouten sneller opgemerkt.

Inhouds- en communicatiestromen. Ontwerpen, niet publiceren. Agenten die eerste ontwerpen van interne updates, vergaderingssamenvattingen of uitgaande inhoud produceren — en deze dan voor menselijke beoordeling naar voren brengen. Het governance-aspect is hier van belang omdat de kwaliteitsdrempel anders is wanneer de uitvoer naar een klant gaat in plaats van een interne Slack-kanaal.

Analyse en waarschuwing. Agenten die dashboards in de gaten houden, afwijkingen markeren en waarschuwingen pushen wanneer metriek buiten verwachte bereiken valt. Dit vervangt het “iemand zou hierop moeten letten”-probleem dat elke ploeg die ooit een weekend heeft verloren aan een onopgemerkte productieproblemen, teistert.

Wat de Meeste Organisaties Nog Steeds Verkeerd Doen

De grootste fout is het behandelen van AI-governance als een beleidsprobleem in plaats van een infrastructuurprobleem.

U kunt alle acceptabele-gebruiksbeleidsregels schrijven die u wilt. Als uw medewerkers geen geautoriseerde, gemakkelijk te gebruiken omgeving hebben voor het inzetten van AI die daadwerkelijk werkt voor hun dagelijkse behoeften, zullen ze uw beleid omzeilen. Dat is geen mensenprobleem. Dat is een ontwerpprobleem.

IDC’s analyse van shadow AI maakt dit punt duidelijk: stealth AI-productiviteit “wurgt de adoptie van AI in bedrijven” omdat organisaties tussen twee kuilen in zitten — ze willen de voordelen, maar vrezen de risico’s. Het resultaat is inactiviteit — wat het slechtste mogelijke resultaat is, omdat het ongecontroleerde adoptie garandeert.

De tweede fout is het behandelen van governance en snelheid als tegenpolen. Dat zijn ze niet. De best-gereguleerde AI-omgevingen zijn ook de snelste — omdat teams geen tijd besteden aan het opnieuw creëren van werk dat al bestaat, het debuggen van agenten die ze niet kunnen zien, of het opnieuw opbouwen van workflows die zijn gebroken omdat iemand het bedrijf heeft verlaten en hun persoonlijke AI-account is meegegaan.

De Frontier Is de Omgeving, Niet het Model

De aandacht van de industrie is gericht op modelmogelijkheden. Grotere contextvensters. Beter redeneren. Multimodale invoer. Dat is belangrijk. Maar voor de meeste teams die proberen werk te doen, is de bottleneck niet het model. Het is de omgeving waarin het model draait.

Kan het team zien wat het doet? Kan het controleren wat het toegang heeft? Kan het delen wat het produceert? Kan het vertrouwen dat het met de juiste gegevens en de juiste beperkingen werkt?

Dat zijn infrastructuurvragen, niet modelvragen. En dat zijn de vragen die organisaties zullen scheiden die echte, duurzame waarde uit AI halen van die welke alleen een extra laag shadow IT toevoegen.

De frontier is niet het bouwen van slimmere modellen. Het is het bouwen van omgevingen waarin slimme modellen daadwerkelijk kunnen worden vertrouwd om te werken.

Marcel Folaron is de mede-oprichter van CoChat, waar hij beheerde AI-werkruimten voor teams bouwt. Hij heeft het afgelopen decennium gewerkt aan het snijvlak van teamcollaboratie, automatisering en ondernemingsbeheer.