Connect with us

Tankeledere

Hvad der virkelig sker under et AI-baseret angreb?

mm
A modern cybersecurity SOC control room at night, showing analysts at glowing consoles overlooking a massive curved screen that visualizes a complex, adaptive red digital attack rapidly navigating a blue network grid.

I årevis har cybersecurity-industrien talt om AI-angreb i fremtidsform. Vi forestillede os selvbevidste super-hackere, der demonterer brandvægge med fremmed logik. Virkeligheden, som vi opdager i vores laboratorier på Simbian, er langt mindre filmisk, men langt mere farlig.

Truslen er ikke, at AI er overmenneskeligt intelligent. Det er, at AI gør ekspertniveau-persistens skalerbar, øjeblikkelig og uendeligt variabel. Det omdanner “marginale forbedringer” af et script til en lavine af entropi, som ingen menneskelig SOC-team kan håndtere.

Her er, hvad der virkelig sker, når maskinen tager tastaturet.

Fase 1: Rekognoskering – Kontekstæraen

I den gamle verden var rekognoskering “spray and pray”. Angribere købte lister over e-mail-adresser og sendte generiske skabeloner ud, i håb om en 0,1% klik-rate.

I et AI-baseret angreb er rekognoskering “spear and clone”. Generative agenter kan nu indtage et måls digitale fodaftryk – LinkedIn-opslag, nyeste tweets, nyhedsomtaler og endda offentlige kode-commits – for at bygge en psykologisk profil på få sekunder. De skriver ikke kun phishing-e-mail; de skriver kontekst.

En AI-agent sender ikke en generisk “Nulstil adgangskode”-link. Den ser, at du lige har committeret kode til et bestemt GitHub-repository klokken 02:00. Den sender dig en Slack-besked fra en “Senior Dev”, der klager over en merge-konflikt i det pågældende repository, med en link til at “fikse det”. Urgensen er fabrikeret, men konteksten er ægte.

Forskningsindsigt: I vores simulationer modellerede vi denne ændring ved at justere brugeradfærdvariabler baseret på kontekstens kvalitet. Når vi skiftede fra generisk phishing til kontekstbevidste lure (henvisning til specifikke interne projektnavne), steg simulerede klik-rater fra <2% til over 20%. I en 5.000-mands virksomhed er det forskellen mellem en generende faktor og en flod.

AI Cybersecurity Research Graph

Fase 2: Udførelse – Den polymorfe mareridt

Dette er, hvor forsvaret virkelig bryder sammen. Traditionelt set, hvis en angriber skrev et skadeligt script (f.eks. en Mimikatz-variant), ville sikkerhedsleverandører finde det, hashere det og blokere det. “Signatur” var skjoldet.

Generativ AI ødelægger begrebet om en statisk signatur. En AI-baseret angriber bruger ikke et statisk værktøj. De bruger en agent, der skriver værktøjet på målet. Hvis agenten opdager en EDR (Endpoint Detection and Response)-sensor, beder den blot sin LLM-backend: “Omskriv denne adgangs-dumping-logik for at undgå disse specifikke API-kroge. Omdøb alle variabler. Ændr kontrollen.”

Intenten bag koden forbliver identisk. Syntaksen ændrer sig fuldstændigt. For et regelbaseret forsvarssystem ser det ud som et helt nyt, aldrig set program.

Forskningsindsigt: Vi kalder disse “Mutant-angreb.” I vores forskning tog vi en standard adgangs-dumping kill chain og brugte en LLM til at generere 500 funktionelle variationer. Mens standard detektionsværktøjer fangede 95% af de originale script, faldt detektionsraterne til ~25% for de muterede versioner. Maskinen blev ikke klogere; den blev bare mere støjende. Og i sikkerhed er støj den ultimative kamuflage.

Fase 3: Lateral bevægelse – Abduktionshastighed

Når man først er inde, bliver hastigheden af menneskelig respons irrelevant. En menneskelig indtrænger bevæger sig forsigtigt, checker logger, skriver kommandoer og pauserer for at tænke. De kan måske skifte til en ny server i løbet af timer.

En AI-agent skifter i millisekunder.

Men hastighed er ikke det eneste faktor; det er Abduktionsregning, eller slutning til den bedste forklaring. AI er overraskende god til at “gætte” strukturen af et netværk baseret på fragmenter. Hvis den ser en server med navnet US-WEST-SQL-01, slutter den, at US-EAST-SQL-01 og US-WEST-BAK-01 findes. Den tester disse hypoteser øjeblikkeligt på tværs af tusindvis af interne IP-adresser.

Den behøver ikke at være perfekt. Den behøver bare at være hurtig. Mens SOC-analysten stadig triagerer den initielle phishing-advarsel, har AI allerede kortlagt domænekontrollen, identificeret backup-serverne og eksfiltreret organisationens kronjuveler.

Fase 4: Virkningen – Entropi-bombe

Det ultimative mål for et AI-baseret angreb er ikke altid stealth. Nogle gange er det kaos. Vi indtræder en æra af High-Entropy-angreb. En AI-agent kan generere 10.000 realistisk udseende advarsler samtidigt – fejlede login-forsøg, port-scans, decoy-malware-eksekveringer.

Dette er “Entropi-bomben”. Den oversvømmer SOC med så meget signal, at analytikerne lider af kognitiv overbelastning. De kæmper mod decoy-angrebene, mens det virkelige angreb sker stille i baggrunden. Udfordringen for forsvaret skifter fra “at finde nålen i høstakken” til “at finde nålen i en stak af nåle”.

Kamp mod ild med ild

Alankrit Chona er Chief Technology Officer og medstifter af Simbian, der overvåger ingeniørarbejdet for Simbian-platformen. Han har spillet banebrydende roller i opbygning af skalerbare, robuste systemer i tidlige virksomheder som Spotnana og Afterpay, samt på stor skala hos Twitter.