Connect with us

Vordenker

Was wirklich während eines AI-bewaffneten Angriffs passiert?

mm
A modern cybersecurity SOC control room at night, showing analysts at glowing consoles overlooking a massive curved screen that visualizes a complex, adaptive red digital attack rapidly navigating a blue network grid.

Seit Jahren hat die Cybersicherheitsbranche über AI-Angriffe in der Zukunftsspanne gesprochen. Wir haben uns vorstellbare, intelligente Super-Hacker vorgestellt, die Firewalls mit außerirdischer Logik demontieren. Die Realität, wie wir sie in unseren Labors bei Simbian entdecken, ist weit weniger kinematografisch, aber weit gefährlicher.

Die Bedrohung besteht nicht darin, dass AI übermenschlich intelligent ist. Es besteht darin, dass AI expertenähnliche Ausdauer skalierbar, sofortig und unendlich variabel macht. Es verwandelt die “marginale Verbesserung” eines Skripts in eine Lawine von Entropie, die kein menschliches SOC-Team bewältigen kann.

Hier ist, was wirklich passiert, wenn die Maschine die Tastatur übernimmt.

Phase 1: Aufklärung – Die Kontext-Ära

In der alten Welt war die Aufklärung “spray and pray”. Angreifer kauften Listen von E-Mails und schickten generische Vorlagen, in der Hoffnung auf eine 0,1%-ige Klickraten.

Bei einem AI-bewaffneten Angriff ist die Aufklärung “spear and clone”. Generative Agenten können jetzt die digitale Fußspur eines Ziels – LinkedIn-Beiträge, kürzliche Tweets, Nachrichtenmeldungen und sogar öffentliche Code-Commits – in Sekunden analysieren, um ein psychologisches Profil zu erstellen. Sie schreiben nicht nur Phishing-E-Mails; sie schreiben Kontext.

Ein AI-Agent sendet kein generisches “Passwort zurücksetzen”-Link. Er sieht, dass Sie gerade Code in ein bestimmtes GitHub-Repository um 2:00 Uhr morgens committet haben. Er sendet Ihnen eine Slack-Benachrichtigung von einem “Senior Dev”, der sich über einen Merge-Konflikt in diesem bestimmten Repository beschwert, mit einem Link zum “Beheben”. Die Dringlichkeit ist hergestellt, aber der Kontext ist real.

Forschungserkenntnis: In unseren Simulationen haben wir diesen Wandel modelliert, indem wir Benutzervariablen basierend auf der Kontextqualität angepasst haben. Als wir von generischer Phishing zu kontextbewussten Ködern (mit Verweis auf bestimmte interne Projektnamen) wechselten, stiegen die simulierten Klickraten von <2% auf über 20%. In einem 5.000-Mitarbeiter-Unternehmen ist das der Unterschied zwischen einer Lappalie und einer Flut.

AI-Cybersicherheitsforschungsgrafik

Phase 2: Ausführung – Der polymorphe Albtraum

Hier bricht die Verteidigung wirklich zusammen. Traditionell, wenn ein Angreifer ein schädliches Skript (z. B. eine Mimikatz-Variante) schrieb, fanden Sicherheitsanbieter es, hashierten es und blockierten es. Die “Signatur” war der Schild.

Generative AI zerstört das Konzept einer statischen Signatur. Ein AI-bewaffneter Angreifer verwendet kein statisches Werkzeug. Er verwendet einen Agenten, der das Werkzeug am Ziel schreibt. Wenn der Agent einen EDR-Sensor (Endpoint Detection and Response) erkennt, fragt er einfach seinen LLM-Backend: “Schreibe diese Anmeldeinformationen-Abfragemethode um, um diese bestimmten API-Hooks zu vermeiden. Benenne alle Variablen um. Ändere den Kontrollfluss.”

Die Absicht des Codes bleibt identisch. Die Syntax ändert sich komplett. Für ein regelbasiertes Verteidigungssystem sieht es aus wie ein völlig neues, noch nie gesehenes Programm.

Forschungserkenntnis: Wir nennen diese “Mutant-Angriffe.” In unserer Forschung haben wir eine Standard-Anmeldeinformationen-Abfragemethode genommen und mit einem LLM 500 funktionale Variationen generiert. Während Standard-Erkennungstools 95% der ursprünglichen Skripte erkannten, sanken die Erkennungsraten für die mutierten Versionen auf ~25%. Die Maschine wurde nicht intelligenter; sie wurde nur lauter. Und in der Sicherheit ist Lärm die ultimative Tarnung.

Phase 3: Laterale Bewegung – Die Geschwindigkeit der Abduktion

Sobald der Angreifer im System ist, wird die Geschwindigkeit der menschlichen Reaktion irrelevant. Ein menschlicher Eindringling bewegt sich vorsichtig, überprüft Protokolle, tippt Befehle und pausiert, um nachzudenken. Er kann möglicherweise in Stunden zu einem neuen Server wechseln.

Ein AI-Agent wechselt in Millisekunden.

Aber Geschwindigkeit ist nicht der einzige Faktor; es ist die abduktive Logik oder die Schlussfolgerung zur besten Erklärung. AI ist erstaunlich gut darin, die Struktur eines Netzwerks basierend auf Fragmenten zu “erraten”. Wenn es einen Server mit dem Namen US-WEST-SQL-01 sieht, schließt es die Existenz von US-EAST-SQL-01 und US-WEST-BAK-01. Es testet diese Hypothesen sofort über Tausende interne IP-Adressen.

Es muss nicht perfekt sein. Es muss nur schnell sein. Während der SOC-Analyst noch die anfängliche Phishing-Warnung triagiert, hat der AI bereits den Domänencontroller kartiert, die Backup-Server identifiziert und die Kronjuwelen des Unternehmens exfiltriert.

Phase 4: Die Auswirkung – Entropie-Bombe

Das ultimative Ziel eines AI-bewaffneten Angriffs ist nicht immer Heimlichkeit. Manchmal ist es Chaos. Wir betreten eine Ära von High-Entropy-Angriffen. Ein AI-Agent kann 10.000 realistisch aussehende Warnungen gleichzeitig generieren – fehlgeschlagene Anmeldungen, Portscans, Decoy-Malware-Ausführungen.

Dies ist die “Entropie-Bombe”. Sie flutet den SOC mit so vielen Signalen, dass die Analysten unter kognitiver Überlastung leiden. Sie kämpfen gegen die Decoys, während der eigentliche Angriff leise im Hintergrund stattfindet. Die Herausforderung für den Verteidiger ändert sich von “die Nadel im Heuhaufen finden” zu “die Nadel in einem Haufen von Nadeln finden”.

Gegen Feuer mit Feuer kämpfen

Alankrit Chona ist Chief Technology Officer und Mitgründer von Simbian, verantwortlich für die Ingenieurarbeit auf der Simbian-Plattform. Er hat bahnbrechende Rollen bei der Erstellung von skalierbaren, robusten Systemen bei frühen Unternehmen wie Spotnana und Afterpay sowie auf großem Maßstab bei Twitter gespielt.