Thought leaders
De Schaduw AI Jungle: Waarom Het Goedkeuren Van Een Platform Niet Hetzelfde Is Als Het Beveiligen Van Wat Erop Gebouwd Is

De adoptie van enterprise AI is verre van wrijvingsloos. Zorgen over gegevensbeheer, naleving van regelgeving en beveiliging hebben elke fase van de reis gevolgd. Maar terwijl organisaties hun activiteiten op grote platforms zoals Microsoft, Salesforce en ServiceNow opvoeren, is er een groeiend gevoel dat de moeilijkste governance-vragen, althans gedeeltelijk, worden aangepakt. Enterprise-overeenkomsten zijn van kracht. Beveiligingscontroles zijn afgerond. De platforms zijn goedgekeurd.
Wat dat vertrouwen geneigd is om over het hoofd te zien, is een andere vraag helemaal: niet of het platform beveiligd is, maar wat en wie erop bouwt.
In alle branches is een stille revolutie gaande, waarbij niet-technische medewerkers enterprise AI-platforms gebruiken om autonome agenten, geautomatiseerde workflows en gegevensverbonden applicaties te creëren, vaak in enkele minuten, zonder één regel code te schrijven. Vrij van de traditionele ontwikkeltijden en -beperkingen, zijn deze bouwers een zegen voor de organisatorische efficiëntie. Maar deze tools worden nooit beoordeeld door een beveiligingsteam. In veel gevallen weten beveiligingsteams niet eens dat ze bestaan.
Deze tools, of ze nu worden geclassificeerd als apps, agenten of automatiseringen, maken deel uit van een groeiend probleem dat bekend staat als Shadow AI, en vertegenwoordigt een van de belangrijkste verschuivingen in enterprise-risico in een decennium, om de eenvoudige reden dat de bedreigingen nu naar binnen zijn verhuisd.
Het oorspronkelijke Shadow IT-probleem was relatief eenvoudig: medewerkers gebruikten niet-goedgekeurde tools van buiten de organisatie, en de taak van beveiliging was om ze te vinden en te blokkeren. Shadow AI is een andere uitdaging helemaal. De tools zitten binnen de platforms die u hebt goedgekeurd. De mensen die ze bouwen, zijn uw eigen medewerkers. De toegang die ze gebruiken is legitiem. En niets daarvan gaat door de beveiligingsprocessen die zijn ontworpen om problemen te vangen voordat ze in productie komen.
Wat dit bijzonder moeilijk maakt om aan te pakken, is de schaal. De meeste beveiligingsleiders onderschatten aanzienlijk hoeveel er binnen hun eigen omgeving wordt gebouwd. Recent onderzoek van meer dan 200 enterprise CISO’s en beveiligingsleiders heeft aangetoond dat het gemiddelde beveiligingsteam slechts 44% van de AI-agenten, automatiseringen en applicaties kan verantwoorden die door hun business-gebruikers zijn gemaakt. Dat is geen gat, dat is een blinde vlek die de meerderheid van wat er loopt, bedekt.
De reden is eenvoudig: business-gebruikers hebben nu de overhand op professionele ontwikkelaars, met een verhouding van 10 tot 1 in sommige organisaties. Ze bouwen constant in elke afdeling, op platforms die zijn ontworpen om het bouwen gemakkelijk te maken, en worden aangemoedigd door de C-suite om te bouwen. Beveiligingsteams zijn gericht op ontwikkelaarpipelines en coderepositories. Ze waren nooit ontworpen om dit te controleren.
De meest voorkomende misvatting is de overtuiging dat het goedkeuren van een platform het beveiligingsprobleem oplost. Het lost het niet op, het verplaatst het alleen. Wanneer een onderneming een overeenkomst sluit met Microsoft, Salesforce of UiPath, zorgt de platformaanbieder voor de beveiliging van hun infrastructuur. Wat medewerkers erop bouwen en hoe ze het configureren, is de verantwoordelijkheid van de onderneming.
Het probleem is dat de tools die business-gebruikers maken, er voor traditionele beveiligingssystemen niet uitzien als software. Er is geen code om te scannen, geen repository om te controleren, geen pipeline om te inspecteren. Een AI-agent gebouwd door een HR-manager via een reeks menu’s en tekstprompt, is, vanuit het perspectief van de meeste beveiligingstooling, onzichtbaar.
En toch zijn deze tools verre van triviaal. Onderzoek heeft aangetoond dat meer dan de helft van de CISO’s bevestigde dat business-gebouwde applicaties nu business-kritische processen ondersteunen en toegang hebben tot gevoelige bedrijfsgegevens. De inzet is echt, en de controle heeft nog niet bijgehouden.
Van Nul Tot Ramp
De use cases zijn even divers als ze talrijk zijn en komen uit vrijwel elke afdeling, zelfs uit afdelingen die nooit zouden zijn opgekomen bij een beveiligingsteam om een oogje op te houden.
Bijvoorbeeld, een marketingcoördinator bouwt een klantgerichte AI-agent op een volledig goedgekeurd platform om productvragen te beantwoorden. Binnen enkele minuten is de app operationeel, maar als iemand zonder beveiligingstraining, twee kleine configuratiefouten onopgemerkt blijven en de agent rechtstreeks toegang geeft tot de hele database van het bedrijf en geen grenzen stelt aan wat hij kan ophalen. In productie vraagt een gebruiker het om werknemersrecords op te halen. Het doet dat. Omdat de agent ook een e-mailmogelijkheid heeft, instrueert de gebruiker het om die gegevens naar een persoonlijk adres te sturen. De hele sequentie duurt minder dan zestig seconden. Geen ongeoorloofde toegang. Geen platformbreuk. Geen beveiligingswaarschuwing.
Dit is geen geavanceerde aanval. Het is het voorspelbare resultaat van een goedbedoelde medewerker die iets bouwt dat hij niet volledig begrijpt, op een platform dat het bouwen gemakkelijk maakt en governance optioneel.
De Governance-Gap Die Niemand Heeft Prijsgesteld
Voor de meeste organisaties blijft het Shadow AI-probleem abstract totdat er iets misgaat. Maar het bedrijfsrisico loopt dieper dan de reactie op een datalek.
Wanneer een business-gebouwde agent gevoelige gegevens lekt, is de vraag die een raad van bestuur zal stellen niet “hoe is de misconfiguratie gebeurd?” maar “hoe wist niemand dat de tool draaide?” Ze zullen niet onderscheiden tussen een datalek veroorzaakt door een externe aanvaller en een veroorzaakt door een misgeconfigureerde interne tool. Als persoonlijke gegevens zijn blootgesteld en de organisatie had geen zicht op wat er draaide, is de afwezigheid van toezicht op zichzelf de aansprakelijkheid. “Een medewerker heeft het gebouwd op een goedgekeurd platform” is geen verweer, het is de beschrijving van de kloof.
De urgentie is echt, maar intentie en uitvoering zijn niet hetzelfde, en voor de meeste ondernemingen blijft de kloof tussen hen wijd open.
Het antwoord is niet om te beperken wie kan bouwen. Het beperken van citizen development zou echte productiviteitswinsten opofferen en in de praktijk niet standhouden. Medewerkers zouden werkommers vinden. Het antwoord is om wat er wordt gebouwd in zicht te brengen en om het te reguleren op het punt waar het risico daadwerkelijk ontstaat: runtime.
Dat betekent begrijpen niet alleen welke agenten bestaan, maar hoe ze zich gedragen, welke gegevens ze toegang hebben, welke systemen ze aanraken en of hun acties binnen de grenzen blijven van wat hun bouwers bedoelden. Het betekent het instellen van richtlijnen die op organisatieniveau werken, niet alleen op het punt van configuratie. En het betekent dat beveiligingsteams de meest basale vragen over elke agent in hun omgeving kunnen beantwoorden: wie heeft het gebouwd, wat heeft het toegang tot en gedraagt het zich zoals het is ontworpen?
De meeste ondernemingen kunnen die vragen vandaag niet beantwoorden. De organisaties die er het eerste komen, zullen degene zijn die AI-adoptie met vertrouwen kunnen opschalen, omdat ze weten wat ze daadwerkelijk draaien.












