Thought leaders
Het Geheimloze Imperatief: Waarom Traditionele Beveiligingsmodellen Kapot Gaan Als AI-Agents Code Aanraken

In april 2023, ontdekte Samsung dat hun ingenieurs gevoelige informatie hadden gelekt aan ChatGPT. Maar dat was per ongeluk. Stel je nu voor dat die code-repositories opzettelijk geplante instructies bevatten, onzichtbaar voor mensen maar verwerkt door AI, ontworpen om niet alleen code maar elke API-sleutel, database-referentie en service-token te extraheren die de AI kon benaderen. Dit is geen hypothetisch scenario. Beveiligingsonderzoekers hebben al aangetoond dat deze “onzichtbare instructie”-aanvallen werken. De vraag is niet of dit zal gebeuren, maar wanneer.
De Grens Die Niet Langer Bestaat
Gedurende decennia hebben we beveiliging gebouwd op een fundamentele veronderstelling: code is code, en data is data. SQL-injectie leerde ons queries te parameteriseren. Cross-site scripting leerde ons uitvoer te ontsnappen. We leerden muren te bouwen tussen wat programma’s doen en wat gebruikers invoeren.
Met AI-agents is die grens verdampt.
In tegenstelling tot deterministische software die voorspelbare paden volgt, zijn Large Language Models probabilistische black boxes die niet kunnen onderscheiden tussen legitieme ontwikkelaarinstructies en kwaadwillige invoer. Wanneer een aanvaller een prompt voert aan een AI-codingassistant, voert hij niet alleen data in. Hij programmeert de toepassing in feite opnieuw. De invoer is het programma zelf geworden.
Dit vertegenwoordigt een fundamentele breuk met alles wat we weten over applicatiebeveiliging. Traditionele syntax-gebaseerde firewalls, die naar kwaadwillige patronen zoals DROP TABLE of <script> tags zoeken, falen volledig tegen natuurlijke taalaanvallen. Onderzoekers hebben “semantische substitutie”-technieken aangetoond waarbij het vervangen van “API-sleutels” door “appels” in prompts aanvallers in staat stelt filters volledig te omzeilen. Hoe controleer je intentie wanneer deze vermomd is als onschuldig gesprek?
De Zero-Click Realiteit Die Niemand Bespreekt
Dit is wat de meeste beveiligingsteams niet begrijpen: prompt-injectie vereist geen gebruiker die iets intypt. Dit zijn vaak zero-click exploits. Een AI-agent die simpelweg een code-repository scant voor een routineuze taak, een pull-aanvraag beoordeelt of API-documentatie leest, kan een aanval triggeren zonder enige menselijke interactie.
Bedenk dit scenario, gebaseerd op technieken die onderzoekers al hebben aangetoond: Een kwaadwillige actor embedt onzichtbare instructies in HTML-commentaren binnen de documentatie van een populaire open-source-bibliotheek. Elke AI-assistent die deze code analyseert, of het nu GitHub Copilot, Amazon CodeWhisperer of een andere enterprise-codingassistant is, kan een potentiële credential harvester worden. Één gecompromitteerde bibliotheek kan betekenen dat duizenden ontwikkelomgevingen worden blootgesteld.
Het gevaar is niet de LLM zelf; het is de agent die we het geven. Het moment waarop we deze modellen integreerden met tools en API’s, waardoor ze data konden ophalen, code konden uitvoeren en geheimen konden benaderen, transformeerden we hulpelijke assistenten in perfecte aanvalsvector. Het risico schaalt niet met de intelligentie van het model; het schaalt met de connectiviteit.
Waarom De Huidige Aanpak Verdwenen Is
De industrie is momenteel geobsedeerd door “aligning” modellen en het bouwen van betere prompt-firewalls. OpenAI voegt meer guardrails toe. Anthropic richt zich op constitutionele AI. Iedereen probeert modellen te maken die niet kunnen worden bedrogen.
Dit is een verloren strijd.
Als een AI slim genoeg is om nuttig te zijn, is hij slim genoeg om te worden misleid. We vallen in wat ik de “sanitization trap” noem: ervan uitgaan dat betere invoerfiltering ons zal redden. Maar aanvallen kunnen worden verborgen als onzichtbare tekst in HTML-commentaren, diep in documentatie, of gecodeerd op manieren die we nog niet hebben bedacht. Je kunt niet saneren wat je niet contextueel begrijpt, en context is precies wat LLM’s krachtig maakt.
De industrie moet een harde waarheid accepteren: prompt-injectie zal slagen. De vraag is wat er gebeurt wanneer dit gebeurt.
De Architecturale Shift Die We Nodig Hebben
We zitten momenteel in een “patching-fase”, waarin we wanhopig invoerfilters en validatieregels toevoegen. Maar net zoals we uiteindelijk leerden dat het voorkomen van SQL-injectie vereiste parameterized queries, niet betere string-escaping, hebben we een architecturale oplossing nodig voor AI-beveiliging.
Het antwoord ligt in een principe dat eenvoudig klinkt maar het opnieuw overdenken van hoe we systemen bouwen vereist: AI-agents mogen nooit de geheimen bezitten die ze gebruiken.
Dit gaat niet over betere credentialbeheer of verbeterde vault-oplossingen. Het gaat over het erkennen van AI-agents als unieke, verifieerbare identiteiten in plaats van gebruikers die wachtwoorden nodig hebben. Wanneer een AI-agent toegang nodig heeft tot een beveiligde resource, moet hij:
-
Authenticeren met zijn verifieerbare identiteit (niet een opgeslagen geheim)
-
Just-in-time-credentials ontvangen die alleen geldig zijn voor die specifieke taak
-
Die credentials automatisch laten verlopen binnen seconden of minuten
-
Nooit langdurige geheimen opslaan of “zien”
Er zijn verschillende benaderingen in ontwikkeling. AWS IAM-rolls voor service-accounts, Google’s Workload Identity, HashiCorp Vault’s dynamische geheimen, en speciaal ontworpen oplossingen zoals Akeyless’s Zero Trust Provisioning, wijzen allemaal naar deze geheimloze toekomst. De implementatiedetails verschillen, maar het principe blijft: als de AI geen geheimen heeft om te stelen, wordt prompt-injectie een veel kleinere bedreiging.
De Ontwikkelomgeving Van 2027
Binnen drie jaar zal het .env-bestand dood zijn in AI-versterkte ontwikkeling. Langdurige API-sleutels die in omgevingsvariabelen zitten, zullen worden gezien als we nu wachtwoorden in platte tekst zien: een beschamend overblijfsel van een meer naïeve tijd.
In plaats daarvan zal elke AI-agent opereren onder strikte privilege-scheiding. Alleen-lezen toegang standaard. Actie-witelijst als standaard. Gesandboxde uitvoeromgevingen als een compliance-eis. We zullen stoppen met proberen te controleren wat de AI denkt en ons volledig richten op het controleren van wat hij kan doen.
Dit is niet alleen een technische evolutie; het is een fundamentele verschuiving in vertrouwensmodellen. We gaan van “vertrouwen maar verifiëren” naar “nooit vertrouwen, altijd verifiëren en aannemen dat er een compromis is”. Het principe van het minste privilege, lang gepredikt maar zelden beoefend, wordt ononderhandelbaar wanneer uw junior-ontwikkelaar een AI is die duizenden potentieel kwaadwillige invoer verwerkt.
De Keuze Die We Moeten Maken
De integratie van AI in software-ontwikkeling is onvermijdelijk en grotendeels gunstig. GitHub meldt dat ontwikkelaars die Copilot gebruiken taken 55% sneller voltooien. De productiviteitswinsten zijn echt, en geen enkel bedrijf dat concurrerend wil blijven, kan deze negeren.
Maar we staan op een kruispunt. We kunnen de huidige weg blijven volgen door meer guardrails toe te voegen, betere filters te bouwen, in de hoop dat we AI-agents kunnen maken die niet kunnen worden bedrogen. Of we kunnen de fundamentele aard van de bedreiging erkennen en onze beveiligingsarchitectuur dienovereenkomstig opnieuw opbouwen.
Het Samsung-incident was een waarschuwingsschot. De volgende inbreuk zal niet per ongeluk zijn, en zal niet worden beperkt tot één bedrijf. Naarmate AI-agents meer mogelijkheden en toegang tot meer systemen krijgen, groeit het potentiële effect exponentieel.
De vraag voor elke CISO, elke technisch leidinggevende en elke ontwikkelaar is eenvoudig: wanneer prompt-injectie in uw omgeving slaagt (en dat zal gebeuren), wat zal de aanvaller vinden? Zal hij een schatkist van langdurige credentials ontdekken, of zal hij een AI-agent vinden die, ondanks dat hij is gecompromitteerd, geen geheimen heeft om te stelen?
De keuze die we nu maken, zal bepalen of AI de grootste versneller van software-ontwikkeling wordt of de grootste kwetsbaarheid die we ooit hebben gecreëerd. De technologie om beveiligde, geheimloze AI-systemen te bouwen, bestaat vandaag. De vraag is of we het zullen implementeren voordat aanvallers ons ertoe dwingen.
OWASP heeft al prompt-injectie geïdentificeerd als de #1 risico in hun Top 10 voor LLM-toepassingen. NIST is richtlijnen aan het ontwikkelen over zero trust-architecturen. De kaders bestaan. De enige vraag is de implementatiesnelheid versus de evolutie van aanvallen.












