Thought leaders
AI-beveiliging is niet kapot, we verdedigen alleen de verkeerde dingen

De cybersecurity-industrie heeft een patroon wanneer een nieuwe technologie opkomt, we beginnen meteen muren om het heen te bouwen. We deden het met cloud, we deden het met containers, en nu doen we het met AI, behalve dat de muren die we nu bouwen op compleet de verkeerde plaatsen staan.
Loop naar elke enterprise-beveiligingsreview vandaag en je hoort dezelfde prioriteiten: het beveiligen van AI-modellen, het beschermen van trainingsdata, het valideren van uitvoer en het inzetten van AI-gepowered copilots. Leveranciers zijn haastig om “AI-beveiliging” tools te verkopen die zich uitsluitend richten op modelniveau-controles, zoals guardrails, prompt-injectiedefensies en model-monitoringplatforms.
Maar aanvallers gebruiken uw AI-integraties als snelwegen naar alles anders.
Het echte aanvalsoppervlak dat niemand in de gaten houdt
Een patroon dat we consistent waarnemen in enterprise-omgevingen vertelt een verontrustend verhaal over beveiligingsteams die zwaar investeren in het beveiligen van hun AI-ontwikkelomgevingen: modeltoegangscontroles, datagovernancekaders, MLOps-beveiligingstools. Dit geeft een vals gevoel van vertrouwen dat hun AI “op slot” zit.
Maar als je het werkelijke aanvalsoppervlak in kaart brengt, zie je dat AI-chatbots vaak OAuth-tokens hebben voor tientallen SaaS-platforms, API-sleutels met excessieve cloudmachtigingen en identiteitstrustrelaties die directe paden kunnen creëren van een eenvoudige promptinjectie naar productie-infrastructuur. De modellen zelf kunnen beveiligd zijn, maar de ecosysteem waarin ze leven zijn vaak helemaal open, en dit is geen randgeval.
Bedrijven gebruiken nu gemiddeld 130+ SaaS-toepassingen, met AI-integraties die identiteitsproviders, cloud-infrastructuur, databases en bedrijfskritieke systemen omvatten. Elke integratie is een potentieel aanvalspad, en elke API-verbinding is een vertrouwensgrens die aanvallers actief proberen te vinden.
Het probleem is niet dat onze AI-beveiligingstools kapot zijn. Het is dat we individuele componenten beveiligen terwijl aanvallers de verbindingen tussen hen exploiteren.
Waarom model-georiënteerde beveiliging het punt mist
De huidige aanpak van AI-beveiliging werkt op een fundamenteel misverstand van hoe moderne aanvallen werken. We behandelen AI als een zelfstandig actief dat beschermd moet worden, net zoals we een database of webtoepassing zouden beveiligen. Maar AI in productie bestaat niet in isolatie. Het is een knooppunt in een complexe grafiek van identiteiten, machtigingen, API’s en datastromen.
Denk aan een typische enterprise-AI-implementatie. Je hebt een AI-agent met toegang tot uw Google Workspace. Het is verbonden met Salesforce via API’s. Het is geïntegreerd met Slack voor meldingen. Het haalt gegevens op uit AWS S3-buckets. Het is geauthenticeerd via Okta of Azure AD. Het activeert workflows in ServiceNow.
Traditionele AI-beveiliging richt zich op het model zelf: de beveiligingspostuur, promptvalidatie, uitvoerveiligheid. Maar aanvallers zijn gericht op de integraties: wat ze kunnen bereiken via gecompromitteerde service-accounts, waar ze kunnen pivoteren via API-manipulaties, welke vertrouwensgrenzen ze kunnen overschrijden via geëxploiteerde integraties.
De aanval begint of eindigt niet met het AI-model. Het model is alleen het entry-point.
Aanvalspaden respecteren geen productgrenzen
Hier is waar de meeste organisaties vastlopen. Ze hebben beveiligingstools geïmplementeerd die elk zicht bieden in een enkel domein. Een tool bewaakt cloudmachtigingen. Een andere volgt SaaS-configuraties. Een derde beheert identiteitsgovernance. Een vierde behandelt kwetsbaarheidsbeheer.
Elk tool laat je zijn stuk van de puzzel zien. Geen van hen laat je zien hoe de stukken samenhangen.
Volgens Gartner, gebruiken organisaties nu gemiddeld 45+ beveiligingstools. Toch, ondanks deze enorme investering, zijn aanvallers erin geslaagd om misconfiguraties samen te ketenen over deze domeinen, omdat geen enkel tool het complete aanvalspad kan zien.
Een aanvaller hoeft geen kritieke kwetsbaarheid in uw AI-model te vinden. Hij hoeft alleen maar een keten te vinden. Misschien is het een misgeconfigureerde IAM-rol die is gekoppeld aan uw AI-service, die machtigingen heeft voor een S3-bucket, die referenties bevat voor een SaaS-toepassing die beheerdersmachtigingen heeft voor uw productieomgeving.
Elke individuele misconfiguratie kan een “medium” of “laag” score hebben in uw beveiligingstools. Maar samen geketend? Dat is een kritieke blootstelling. En het is compleet onzichtbaar als je naar elk beveiligingsdomein in isolatie kijkt.
De Exposure Management Imperatief
Dit is waarom het gesprek moet verschuiven van “AI-beveiliging” naar continue dreigingsblootstellingbeheer voor AI-geïntegreerde omgevingen.
Het is niet genoeg om te vragen of onze AI-modellen beveiligd zijn. Beveiligingsteams moeten begrijpen wat een aanvaller kan bereiken als ze een AI-serviceaccount compromitteren. Ze moeten zicht hebben in hoe misconfiguraties over cloud-, SaaS- en identiteitssystemen samen kunnen worden geketend. Ze moeten weten hoe AI-integraties hun aanvalsoppervlak in real-time veranderen. En ze moeten risico’s prioriteren op basis van daadwerkelijke aanvalbaarheid, niet alleen op basis van ernstscores.
De meeste beveiligingsprogramma’s prioriteren nog steeds risico’s in isolatie, met behulp van CVSS-scores en compliance-controlelijsten die volledig negeren of een kwetsbaarheid daadwerkelijk exploiteerbaar is in uw specifieke omgeving.
Deze kloof is nog groter met AI-systemen, omdat ze constant veranderen. Nieuwe integraties worden wekelijks toegevoegd. Machtigingen evolueren. API-verbindingen verschuiven. Uw aanvalsoppervlak van vorige maand is niet uw aanvalsoppervlak van vandaag, maar uw beveiligingsbeoordeling is dat waarschijnlijk wel.
Hoe Aanvalspad-Georiënteerde Beveiliging Eruitziet
Het beveiligen van AI in productie vereist een fundamenteel andere aanpak, en het komt neer op vier sleutelverschuivingen in denken.
Ten eerste hebt u unified zicht nodig over beveiligingsdomeinen. Stop met het vragen van elk beveiligingstool om in zijn eigen silo te opereren. Uw cloudbeveiliging, identiteitsgovernance, SaaS-beheer en kwetsbaarheidsscanningtools houden allemaal stukken van de aanvalspadpuzzel vast. Ze moeten gegevens in real-time delen zodat u kunt zien hoe misconfiguraties samenhangen.
Ten tweede, omarm continue aanvalspadsimulatie. Wacht niet op penetratietests of red team-oefeningen om exploiteerbare paden te ontdekken. Test continu hoe een aanvaller door uw omgeving kan bewegen, met focus op daadwerkelijke exploiteerbaarheid in plaats van theorethische ernstscores.
Ten derde, prioriteer op basis van context. Een misgeconfigureerde S3-bucket is niet kritiek omdat het openbaar is. Het is kritiek als het openbaar is en referenties bevat en die referenties beheerdersmachtigingen hebben en ze bereikbaar zijn vanuit een internet-exposed asset. Context telt meer dan enige individuele score.
Ten vierde, beweeg naar preemptieve remediatie. Als uw SOC-team een alarm aan het onderzoeken is, hebt u al waardevolle responstijd verloren. Moderne verdediging vereist de mogelijkheid om exploiteerbare paden te sluiten voordat ze worden gebruikt, niet na een incident.
De Waarschuwing Die We Niet Konden Ignoreren
Terwijl AI overal in de enterprise-stack wordt geïntegreerd, breidt het aanvalsoppervlak zich sneller uit dan beveiligingsteams handmatig kunnen redeneren. We voegen AI-integraties toe met een snelheid van 10 keer die waarop we ze beveiligen.
Als u AI in isolatie beveiligt, het model beschermt terwijl u de ecosysteem waarin het opereert negeert, bent u al achter. Aanvallers denken niet in tools, ze denken in paden. Ze exploiteren geen individuele kwetsbaarheden. Ze ketenen misconfiguraties samen over uw hele omgeving.
De bedrijven die AI met succes zullen beveiligen, zullen niet diegenen zijn met de meeste AI-beveiligingstools. Ze zullen degenen zijn die begrijpen dat AI-beveiliging onlosmakelijk verbonden is met blootstellingbeheer over hun hele aanvalsoppervlak.
Modelbeveiliging is een basisvereiste. Wat telt, is het begrijpen wat een aanvaller kan bereiken als ze een AI-integratie compromitteren. Tot beveiligingsteams dit continu, in real-time, over hun hele omgeving kunnen beantwoorden, beveiligen ze AI niet. Ze hopen alleen dat de muren die ze hebben gebouwd op de juiste plaatsen staan.












