Thought leaders
De komende golf van multimodale aanvallen: wanneer AI-hulpmiddelen het nieuwe exploitatieoppervlak worden

Naarmate grote taalmodellen (LLM’s) evolueren naar multimodale systemen die tekst, afbeeldingen, spraak en code kunnen verwerken, worden ze ook krachtige orkestrators van externe hulpmiddelen en connectors. Met deze evolutie komt een uitgebreid aanvalsoppervlak dat organisaties zich bewust van moeten zijn.
Een voorbeeld hiervan is sociale manipulatie, waarop agenten slachtoffer kunnen worden omdat ze zijn getraind om als mensen te handelen en nog minder scepsis hebben. Een agent is bijvoorbeeld niet in staat om het verschil te bepalen tussen een vervalste e-mail en een e-mail van een legitieme retailer.
De convergentie van multimodaliteit en hulpmiddelentoegang verandert AI van een assistent in een medium voor aanvallen. Aanvallers kunnen nu eenvoudige tekstprompts gebruiken om hulpmiddelenmisbruik te activeren, ongeautoriseerde acties uit te voeren of gevoelige gegevens via legitieme kanalen te extraheren. Omdat deze mogelijkheden zijn ontworpen voor toegankelijkheid, niet voor verdediging, kunnen zelfs aanvallers met weinig vaardigheden AI-systemen gebruiken om complexe operaties uit te voeren zonder één regel code te schrijven.
Hoe multimodale AI een exploitatieketen wordt
LLM’s worden steeds vaker orkestrators van externe systemen, met integraties die vandaag de dag alles omvatten, van API’s tot e-mail, cloudopslag en code-uitvoeringshulpmiddelen. Deze connectors zijn vaak gebouwd voor toegankelijkheid, niet voor verdediging.
Het nadeel hiervan is dat het kan leiden tot een golf van nieuwe exploits.
Een voorbeeld is prompt-gestuurd hulpmiddelenmisbruik. Een aanvaller kan bijvoorbeeld een afbeelding met prompt-injectie-instructies in een e-mail gebruiken. Een optical character recognition (OCR)-hulpmiddel is nodig om de tekst uit de afbeelding te extraheren. De agent wordt geïnstrueerd om te reageren op de e-mail en een Google-kaart bij de thuisadres van het doelwit te voegen, waardoor de locatie van het slachtoffer wordt gede-anonimiseerd.
Een ander mechanisme is cross-modale guardrail-omzeiling. Dit heeft betrekking op guardrails die tussen de ingangspunten en uitgangspunten van hulpmiddelen zitten. Bijvoorbeeld, bij het analyseren van de uitvoer van een OCR-extractor, kan er geen sterke genoeg guardrail zijn rondom prompt-injecties die uit de uitvoer worden ontdekt.
Er zijn ook structurele zwakheden die kunnen worden uitgebuit. Een van deze problemen is de losse, te permissieve bindings tussen het model en de externe hulpmiddelen die het kan aanroepen – wat betekent dat een eenvoudige natuurlijke-taalprompt echte acties kan activeren, zoals code uitvoeren, bestanden openen of e-mail interactie. Bovendien ontbreken bij veel van deze systemen strikte toegangscontroles, zodat de AI mogelijk de mogelijkheid heeft om gegevens te schrijven, te verwijderen of te wijzigen die verder gaan dan wat een mens ooit zou autoriseren. Het probleem wordt nog ernstiger wanneer je naar connectors en MCP-achtige extensies kijkt, die vaak bijna geen guardrails hebben; zodra ze zijn gekoppeld, breiden ze de reikwijdte van de AI uit naar persoonlijke opslag, inboxen en cloudplatforms met zeer weinig toezicht. Samen creëren deze structurele zwakheden een omgeving waarin klassieke beveiligingsproblemen – exfiltratie, sandbox-ontsnappingen en zelfs geheugengiftiging – kunnen worden geactiveerd door middel van niets meer dan een slim geconstrueerde prompt.
Opkomende bedreigingen: Wat komt hierna?
In deze nieuwe norm zijn AI-geactiveerde e-mail- en sociale manipulatieaanvallen onmiddellijk. Phishing-volume zal toenemen door het gebruik van LLM’s door de aanvaller; het knelpunt is het omzeilen van normale spamfilters van e-mailproviders zoals Google. Inbox-gekoppelde AI-agenten vergroten de kans dat phishingaanvallen slagen. Er zal waarschijnlijk een toename zijn in e-mailgebonden bedreigingen wanneer gebruikers agenten verbinden met Gmail of Outlook.
Aanvallers kunnen de AI instrueren om hele spam- of spear-phishingcampagnes uit te voeren. In dit scenario,
AI-tot-AI-phishing wordt plausibel.
Multimodale systemen bieden steeds vaker code-uitvoeringsmogelijkheden. Ontsnappingsroutes laten aanvallers toe om de onderliggende infrastructuur te breken. En sandbox-ontsnappingen vormen de grootste reputatienachtmerrie voor leveranciers.
Lange-termijngeheugengiftiging en uitgestelde triggers vertegenwoordigen verdere bedreigingen. Persistente geheugen laat verborgen payloads toe om te activeren op toekomstige prompts. Cross-modale triggers (bijv. afbeeldingen of tekstfragmenten) kunnen tijd-bomgedrag activeren.
Waarom multimodale aanvallen zo toegankelijk en gevaarlijk zijn
AI heeft aanvals capaciteiten gedemocratiseerd. Gebruikers hebben geen coderings- of malware-ontwikkelingsvaardigheden nodig; natuurlijke taal wordt het interface voor malware-creatie of gegevensexfiltratie. Dit betekent dat zelfs niet-technische individuen malware kunnen genereren of campagnes uitvoeren via prompts.
AI maakt ook de versnelling en schaal van schadelijke operaties mogelijk. Multimodale agenten kunnen werk automatiseren dat eerder expertinspanning vereiste. Code, e-mails, onderzoek en verkenning kunnen onmiddellijk worden geproduceerd.
Gebruikerstoezicht en onopzettelijke blootstelling dragen bij aan het schade potentieel van AI. Gebruikers begrijpen vaak niet wat de AI kan benaderen, en standaardinstellingen schakelen AI-integraties steeds vaker automatisch in. Veel mensen realiseren zich niet dat ze de AI te veel toegang hebben gegeven tot e-mail of documenten.
Principes en controles voor multimodale beveiliging
Organisaties moeten beveiligingsmaatregelen tegen multimodale aanvallen implementeren. Beveiligingsteams moeten hulpmiddelentoegang standaard beperken. Opt-in-controles moeten auto-geactiveerde integraties vervangen. Ze moeten ook minste-privilege-toegang toepassen op alle AI-gekoppelde systemen en schrijf-/verwijder-toegang verwijderen. Dit moet cross-origin-regels en domein-whitelisting (infrastructuur-whitelisting en niet LLM-niveau-whitelisting) omvatten.
Een andere belangrijke stap is om expliciete guardrails voor hulpmiddelenaanroepen te bouwen. Vervang natuurlijke-taaltiggers door gestructureerde, getypeerde commandovalidatie. Guardrails moeten zowel invoer- als uitvoer-chokepoints zijn.
Andere belangrijke principes en controles zijn:
- Stel sterke goedkeuringsworkflows in voor gevoelige operaties.
- Voorkom dat gebruikersgegevens in persistente modelgeheugen worden opgeslagen. Pas geautomatiseerde geheugensanitatie en herkomstcontroles toe.
- Verhard en isoleer code-uitvoeringsomgevingen.
- Bewaak verdachte gedragingen en ontsnappingspogingen.
- Versterk gebruikeronderwijs en transparantie.
- Voeg meer gebruikersbevestiging toe wanneer de agent risicovolle taken uitvoert.
- Maak duidelijk wanneer AI-hulpmiddelen toegang hebben tot e-mails, bestanden of cloudbronnen.
- Waarschuw gebruikers voor hoge-risicoconnectors.
Succesvol zijn tegen multimodale aanvallen
AI-technologieën zijn snel geëvolueerd tot agenten van bedrijfsoperaties, waardoor een situatie is ontstaan waarin natuurlijke taal zelf een vorm van exploitatie wordt. De convergentie van multimodaliteit en hulpmiddelentoegang opent het aanvalsoppervlak, waardoor AI van een assistent in een medium voor aanvallen verandert. Multimodale aanvallen exploiteren de losse integratie tussen LLM’s en de externe systemen die ze controleren, zoals API’s, bestandsopslag en automatiseringsplatforms.
Naarmate bedreigingen evolueren, moeten organisaties strategieën adopteren die expliciet rekening houden met multimodale aanvals paden. Het versterken van verdedigingen met behulp van de bovenstaande best practices is essentieel om te voorkomen dat AI-hulpmiddelen onopzettelijk dienst doen als schakels in een aanvallers exploitatieketen.












