Connect with us

Thought leaders

Wat er echt gebeurt tijdens een AI-gestuurd aanval?

mm
A modern cybersecurity SOC control room at night, showing analysts at glowing consoles overlooking a massive curved screen that visualizes a complex, adaptive red digital attack rapidly navigating a blue network grid.

Al jaren spreekt de cybersecurity-industrie over AI-aanvallen in de toekomstige tijd. We stelden ons voor dat super-hackers met buitenaardse logica firewalls zouden ontmantelen. De realiteit, zoals we die in onze laboratoria bij Simbian ontdekken, is veel minder cinematisch maar veel gevaarlijker.

Het gevaar is niet dat AI supermenselijk slim is. Het is dat AI expert-niveau volharding schaalbaar, instant en oneindig variabel maakt. Het verandert de “marginale verbetering” van een script in een lawine van entropie die geen enkel menselijk SOC-team aankan.

Dit is wat er echt gebeurt wanneer de machine de toetsenbord overneemt.

Fase 1: Verkenningsfase – De Context Era

In de oude wereld was verkenningsfase “spray and pray”. Aanvallers kochten e-maillijsten en stuurden generieke sjablonen, in de hoop op een 0,1% klikratio.

Bij een AI-gestuurd aanval is verkenningsfase “spear and clone”. Generatieve agenten kunnen nu de digitale voetafdruk van een doelwit – LinkedIn-berichten, recente tweets, nieuwsvermeldingen en zelfs openbare codecommits – in seconden ingesturen om een psychologisch profiel op te bouwen. Ze schrijven geen enkel phishing-e-mail; ze schrijven context.

Een AI-agent stuurt geen generieke “Wachtwoord resetten”-link. Het ziet dat je om 02:00 uur code hebt geüpload naar een specifiek GitHub-repository. Het stuurt je een Slack-notificatie van een “Senior Dev” die klaagt over een merge-conflict in die specifieke repository, met een link om het “op te lossen”. De urgentie is gefabriceerd, maar de context is echt.

Onderzoeksinzicht: In onze simulaties hebben we deze verschuiving gemodelleerd door gebruikersgedragsvariabelen aan te passen op basis van contextkwaliteit. Toen we overstapten van generieke phishing naar context-gevoelige lokaas (met verwijzing naar specifieke interne projectnamen), steeg het gesimuleerde klikpercentage van <2% tot meer dan 20%. In een onderneming van 5.000 personen is dat het verschil tussen een ergernis en een overstroming.

AI Cybersecurity Research Graph

Fase 2: Uitvoering – De polymorfe nachtmerrie

Dit is waar de verdediging echt breekt. Traditioneel, als een aanvaller een kwaadwillig script schreef (bijv. een Mimikatz-variant), vonden beveiligingsleveranciers het, hashen het en blokkeerden het. De “handtekening” was het schild.

Generatieve AI vernietigt het concept van een statische handtekening. Een AI-gestuurd aanvaller gebruikt geen statisch hulpmiddel. Ze gebruiken een agent die het hulpmiddel op de doelwit schrijft. Als de agent een EDR-sensor (Endpoint Detection and Response) detecteert, vraagt het eenvoudigweg aan zijn LLM-backend: “Schrijf deze credential dumping-logica om deze specifieke API-haken te vermijden. Hernoem alle variabelen. Verander de controlestroom.”

De intentie van de code blijft identiek. De syntax verandert volledig. Voor een regelgebaseerd verdedigingssysteem ziet het eruit als een compleet nieuw, nog nooit eerder gezien programma.

Onderzoeksinzicht: We noemen deze “Mutant Aanvallen.” In ons onderzoek hebben we een standaard credential dumping-kill chain genomen en met een LLM 500 functionele variaties gegenereerd. Terwijl standaard detectiehulpmiddelen 95% van de oorspronkelijke scripts vingen, daalde de detectieratio tot ~25% voor de gemuteerde versies. De machine werd niet slimmer; het werd alleen maar luider. En in beveiliging is lawaai de ultieme camouflage.

Fase 3: Laterale beweging – De snelheid van abductie

Eens binnen, wordt de snelheid van menselijke reactie irrelevant. Een menselijke indringer beweegt voorzichtig, controleert logs, typt commando’s en pauzeert om na te denken. Ze kunnen in uren tijd naar een nieuwe server pivoteren.

Een AI-agent pivoteert in milliseconden.

Maar snelheid is niet het enige factor; het is Abductief Redeneren, of inferentie naar de beste verklaring. AI is verrassend goed in “gokken” naar de structuur van een netwerk op basis van fragmenten. Als het een server ziet met de naam US-WEST-SQL-01, vermoedt het het bestaan van US-EAST-SQL-01 en US-WEST-BAK-01. Het test deze hypothesen onmiddellijk over duizenden interne IP-adressen.

Het hoeft niet perfect te zijn. Het moet alleen maar snel zijn. Terwijl de SOC-analist nog steeds de initiële phishing-waarschuwing triageert, heeft de AI al de domeincontroller in kaart gebracht, de back-upservers geïdentificeerd en de kroonjuwelen van de organisatie geëxtraheerd.

Fase 4: De impact – Entropiebom

Het uiteindelijke doel van een AI-gestuurd aanval is niet altijd stealth. Soms is het chaos. We zijn een tijdperk van High-Entropy Aanvallen binnen. Een AI-agent kan 10.000 realistisch uitziende waarschuwingen tegelijk genereren – mislukte inlogpogingen, poortscans, decoy-malware-uitvoeringen.

Dit is de “Entropiebom”. Het overspoelt de SOC met zoveel signalen dat de analisten last hebben van cognitieve overbelasting. Ze vechten tegen de decoys terwijl de echte aanval stil in de achtergrond plaatsvindt. De uitdaging voor de verdediger verschuift van “het vinden van de naald in de hooiberg” naar “het vinden van de naald in een stapel naalden”.

Vuur bestrijden met vuur

De les uit ons onderzoek is scherp: Je kunt een machine niet bestrijden met een ticketqueue.

Als de aanvaller zijn code in seconden kan itereren, en je verdediging een mens nodig heeft om een detectieregel in uren te schrijven, heb je al verloren. De asymmetrie is wiskundig. De enige manier om een AI-gestuurd aanval te overleven is om een AI-verdediger te hebben die op hetzelfde niveau werkt – redeneren, verifiëren en blokkeren sneller dan de aanvaller kan muteren.

De aanval is geëvolueerd. De verdediging moet nu hetzelfde doen.

32 5 dagen
Van kwetsbaarheid tot exploit

12% 54%
Doorklikratio voor AI-gepowered phishing-e-mails

Dagen 1 uur
Van initiële compromittering tot exfiltratie voor de top 20%

Dagen 48 min
Mediaan breakout-tijd (laterale beweging)

De nieuwe realiteit van AI-gestuurde beveiligingsaanvallen

Alankrit Chona is Chief Technology Officer en mede-oprichter van Simbian, waar hij verantwoordelijk is voor de techniek van het Simbian-platform. Hij heeft baanbrekende rollen gespeeld bij het opbouwen van schaalbare, robuuste systemen bij startende bedrijven zoals Spotnana en Afterpay, evenals op grote schaal bij Twitter.