Thought leaders
Het opnieuw bekijken van leuningen voor AI-toepassingen

Naarmate AI-toepassingen verder gaan dan eenvoudige chatbots en agente-systemen die in staat zijn om namens een gebruiker te handelen, nemen de risico’s exponentieel toe. Agente-toepassingen kunnen acties uitvoeren via tools, en dit opent nieuwe bedreigingsvectoren voor aanvallers die deze tools kunnen manipuleren om de staat van gebruikers-toepassingen en -gegevens te wijzigen.
Traditionele leuningen en beveiligingsmodellen zijn ontworpen voor smalle, goed gedefinieerde bedreigingen, maar ze hebben moeite om te schalen tegen de diversiteit en creativiteit van moderne aanvalstechnieken. Deze nieuwe realiteit vereist een paradigma-shift: het toepassen van AI om AI te verdedigen, waardoor adaptieve en schaalbare waarborgen mogelijk worden die overeenkomen met de vernuftigheid en onvoorspelbaarheid van de tegenstanders van vandaag.
Het begrijpen van het uitgebreide risico
AI dringt door in elke laag van software – van CRMs tot kalenders, e-mail, workflows, browsers en meer – en embedt intelligentie overal. Wat begon als conversational assistants zijn nu autonome agenten die onafhankelijke acties kunnen uitvoeren.
Een voorbeeld is OpenAI’s opkomende “agenten”, die het internet kunnen browsen of taken online kunnen uitvoeren. Deze mogelijkheden ontgrendelen een immense productiviteit, maar stellen ook een enorme, ongekarteerde aanvalsoppervlak bloot. De risico’s gaan verder dan gegevenslekkage en omvatten gedragsmanipulatie, model-evasie en prompt-injectie-aanvallen – bedreigingen die dynamisch evolueren en de logica van het model richten in plaats van de infrastructuur.
Voor ondernemingen betekent deze verschuiving dat beveiliging even snel moet evolueren als AI zelf. De uitdaging voor technologie- en beveiligingsleiders is hoe ze innovatie kunnen beschermen zonder het te vertragen, een spanning die lange tijd heeft bestaan tussen beveiliging en AI-ontwikkelteams.
Waar traditionele leuningen tekortschieten
De meeste huidige AI-beveiligings-tools vertrouwen nog steeds op statische, smal getrainde machine learning-modellen die zijn ontworpen om specifieke soorten aanvallen te herkennen. Elke nieuwe evasie- of prompt-injectie-methode vereist vaak opnieuw trainen of opnieuw inzetten van een specifiek model. Deze reactieve aanpak gaat ervan uit dat slechte actoren op een voorspelbare manier zullen handelen. Echter, de waarheid is dat aanvallers nu AI gebruiken om adaptieve, creatieve en snel bewegende bedreigingen te genereren die traditionele verdedigingen niet kunnen anticiperen.
Zelfs leuningen die als state-of-the-art worden beschouwd, zijn beperkt in omvang en mogelijkheden en zijn alleen effectief binnen de scenario’s waarvoor ze zijn getraind. Oude paradigma’s vereisen het trainen van een apart model voor elke nieuwe aanval, wat een broos en niet-houdbare aanpak is, aangezien het aantal potentiële exploit-technieken in de honderden loopt.
Daarbij bestaat een culturele disconnect tussen beveiligings- en AI-teams. AI-ontwikkelaars zien beveiliging vaak als een blocker – iets dat hun snelheid vertraagt – terwijl beveiligingsteams de verantwoordelijkheid dragen als er iets misgaat. Deze gebrek aan samenwerking heeft veel organisaties kwetsbaar gemaakt door ontwerp. Wat nodig is, zijn verdedigingen die naadloos in de AI-levenscyclus worden geïntegreerd, waardoor toezicht mogelijk wordt zonder wrijving.
De script omdraaien: AI gebruiken om AI te verdedigen
Om deze uitdagingen aan te gaan, ontwikkelt zich een nieuw beveiligingsparadigma: AI die kwaadwillige AI aanvalt en uw AI verdedigt. In plaats van te vertrouwen op statische regels of handgemaakte handtekeningen, maakt deze aanpak gebruik van de generatieve en analytische kracht van grote taalmodellen (LLM’s) om zowel AI-systemen te testen als te beschermen.
- AI-gedreven red teaming: LLM’s kunnen een breed scala aan vijandige gedragingen simuleren, waaronder model-evasie, prompt-injectie en agent-misbruik. Door onevenwichtige of “roguemodels” los te laten om toepassingen creatief te testen, krijgen organisaties een rijker en meer realistisch begrip van kwetsbaarheden voordat aanvallers ze kunnen uitbuiten.
- Continue, adaptieve verdediging: Dezelfde AI-systemen kunnen worden getraind om van elke aanval te leren en automatisch verdedigingen te versterken. In plaats van honderden smal gefocuste modellen te beheren, kunnen organisaties een enkele, schaalbare verdedigingslaag inzetten die in staat is om diverse bedreigingen te herkennen en aan te passen, terwijl consistentie in latentie en prestaties wordt gehandhaafd.
Dit markeert een fundamentele verschuiving van handmatige, op een bepaald moment geteste naar levende leuningen die evolueren samen met de systemen die ze beschermen.
Het opbouwen van een zelfverdedigend ecosysteem
AI die AI verdedigt, verbetert niet alleen de detectie; het transformeert de hele verdedigingshouding. Wanneer deze systemen goed geïntegreerd zijn, kunnen ze:
- Bescherming moeiteloos schalen door generalisatie over meerdere aanvalstypen.
- Continu verbeteren naarmate ze nieuwe bedreigingen in productie tegenkomen.
- De kloof tussen AI- en beveiligingsteams overbruggen, waardoor toezicht mogelijk wordt zonder innovatie te hinderen.
- Zicht bieden in complexe risicogebieden die worden geïntroduceerd door agente-gedrag, waarbij AI-systemen autonoom handelen in digitale omgevingen.
Het doel is om beveiligingssystemen te bouwen die denken als aanvallers, hun bewegingen anticiperen en even snel evolueren als zij.
Een oproep tot een adaptieve mindset
De industrie staat op een keerpunt. Na de initiële hype van 2023-2024 zijn veel ondernemings-AI-initiatieven stilgevallen omdat ze tegen productiebelemmeringen aanliepen. Dat was niet vanwege een gebrek aan potentieel, maar omdat de infrastructuur en beveiligingsparadigma’s niet konden bijhouden. Nu AI zich integreert in kritieke workflows, zullen de gevolgen van onveilig ontwerp alleen maar toenemen.
Organisaties moeten een adaptieve beveiligingsmentaliteit aannemen, waarin AI-systemen continu andere AI-systemen controleren, testen en versterken. Dit betekent dat intelligente leuningen vanaf het begin worden ingebed, in plaats van later toegevoegd. Het is dwaas om aan software te denken die niet native AI-gebaseerd is en gevaarlijk om aan AI te denken die niet native beveiligd is.
Levende AI-leuningen
AI is de nieuwe basis van software, en zoals elke basis, hangt de sterkte ervan af van hoe goed het stress kan weerstaan. Statische verdedigingen kunnen het moment niet aan. De volgende generatie beveiliging zal toebehoren aan zelflerende systemen (AI die AI verdedigt) die de snelheid, creativiteit en schaal van de bedreigingen die ze tegenkomen, kunnen bijhouden. Alleen door AI te leren zichzelf te beschermen, kunnen we de toekomst die het ons helpt te bouwen, beveiligen.












