Vernetzen Sie sich mit uns

Vordenker

Wie Kriminelle das KI-Wettrüsten gewinnen, noch bevor Unternehmen überhaupt damit beginnen

mm

In einer Zeit, in der KI Branchen in beispiellosem Tempo transformiert, ist die Schattenseite dieser technologischen Revolution ebenso alarmierend. Während Unternehmen um die Nutzung des Potenzials von KI wetteifern, nutzen Cyberkriminelle diese Fortschritte aus und verändern so die Dynamik von Cyberkriminalität und Betrug.

Veränderung der Ökonomie von Cyberkriminalität und Betrug

Cyberkriminelle nutzen dieselben KI-Modelle und -Technologien wie Unternehmen und passen sie oft innerhalb weniger Tage nach ihrer Veröffentlichung an. Eines der frühesten Beispiele dafür ist… Missbrauch Die Automatisierung der CAPTCHA-Lösung mit ChatGPT‐1 demonstrierte, wie schnell generative Modelle grundlegende Sicherheitskontrollen umgehen können.

Seitdem wurde jeder bedeutende Durchbruch im Bereich der generativen KI rasch von kriminellen Adaptionen nachgeahmt, darunter die Erzeugung von Deepfake-Stimmen und -Videos, die fast unmittelbar auf Darknet-Plattformen auftauchen. Dieser beschleunigte Zyklus ermöglicht Betrügern um ausgefeilte Technologien auszunutzen, um überzeugende Betrugsmaschen zu entwickeln und so traditionelle Sicherheitsmaßnahmen zu untergraben.

Allein im ersten Quartal 2025 verursachten Betrugsfälle mithilfe von Deepfakes Berichten zufolge mehr als Finanzielle Verluste in Höhe von 200 Millionen DollarDie Profitabilität der Cyberkriminalität ist sprunghaft angestiegen, da Plattformen, die „Fraud-as-a-Service“ anbieten, es Kriminellen einfacher denn je machen, komplexe Machenschaften durchzuführen, darunter synthetische Identitäten und hochentwickelte Phishing-Kits.

Während Unternehmen darum kämpfen, ihre KI-Kapazitäten auszubauen, sind Kriminelle ihnen einen Schritt voraus, indem sie ständig Innovationen entwickeln und die Lücken ausnutzen, die veraltete Sicherheitssysteme hinterlassen.

Warum veraltete Cybersicherheits- und Vertrauensrahmen gegenüber KI-gestützten Akteuren versagen

Die traditionellen Cybersicherheitsmaßnahmen, die einst einen gewissen Schutz boten, erweisen sich als unzureichend. Veraltete Systeme, die auf Blacklists, CAPTCHAs und Ein-Faktor-Authentifizierung setzen, sind schlecht gerüstet, um die sich ständig weiterentwickelnde Landschaft KI-gesteuerter Angriffe abzuwehren. Kriminelle nutzen Deepfakes, die biometrische Scanner täuschen können, und synthetische Identitäten, die KYC-Protokolle problemlos umgehen.

Dieses Versagen wird dadurch verschärft, dass viele Organisationen Cybersicherheit immer noch als Kostenfaktor und nicht als kritische Infrastrukturkomponente betrachten. Während das Pentagon Millionen in die Anstellung von KI-Hackern investiert, wird die technologische Lücke deutlich. Während Unternehmen in der Erfüllung von Compliance-Vorgaben verstrickt sind, nutzen Kriminelle KI, um menschliche Schwächen auszunutzen, beispielsweise durch Spear-Phishing-Angriffe, die die Kommunikation von Führungskräften imitieren.

Wie KI-basierte Angriffe in der Praxis aussehen

Moderne Betrugstaktiken haben sich weit über frühere Phishing-Angriffe hinaus entwickelt. Angreifer konstruieren ausgeklügelte Betrugsketten, die in jedem Schritt legitim erscheinen.

Stellen Sie sich einen typischen Morgen im Büro vor. Dienstag, 9:43 Uhr. Der Finanzchef erhält eine E-Mail mit dem Betreff „Dringend“, die scheinbar vom Vorstandsvorsitzenden stammt. Der Ton ist vertraut. Die Formulierung entspricht früheren Anfragen. Wenige Minuten später trifft über einen anderen Kanal eine Folge-E-Mail ein, die die Dringlichkeit unterstreicht. Um 11:00 Uhr wird eine Überweisung in Millionenhöhe genehmigt, die sich später jedoch als auf ein von Angreifern kontrolliertes Offshore-Konto umgeleitet herausstellt.

Diese KI-gestützten Angriffe sind psychologische Manipulationen, die Vertrauen und Autorität ausnutzen. Die Raffinesse solcher Operationen verdeutlicht eine Lücke in den bestehenden Sicherheitsmaßnahmen, die die subtilen Verhaltensanomalien, die modernen Betrug kennzeichnen, nicht erkennen können.

Was Unternehmen realistischerweise priorisieren sollten, bevor sie intern mehr KI einsetzen

Bevor Unternehmen KI verstärkt intern einsetzen, müssen sie ihre Annahmen zum Thema Vertrauen überdenken. Die Zunahme KI-gestützter Kriminalität hat eine strukturelle Schwäche offengelegt: Organisationen verteidigen sich noch immer gegen Bedrohungen von gestern, während heutige Angriffe standardmäßig so gestaltet sind, dass sie legitim wirken.

1. Unternehmen müssen überdenken, wie Risiko an sich definiert wird.

Herkömmliche Risikomatrizen basierten auf Fehlern wie Systemausfällen, Datenlecks und Richtlinienverstößen. Im Zeitalter der KI resultiert das Risiko zunehmend aus Simulationen statt aus Fehlfunktionen. Anstatt zu fragen „Was könnte schiefgehen?“ ist es daher sinnvoller zu fragen „Was kann schiefgehen?“ überzeugend gefälscht„…in diesem Umfang, schneller als wir reagieren können.“

Synthetische Identitäten, Identitätsdiebstahl und KI-generierte Narrative verhalten sich anders als herkömmliche Bedrohungen: Sie verbreiten sich schneller, fügen sich in legitime Aktivitäten ein und nutzen Vertrauen statt technischer Sicherheitslücken aus. Es überrascht daher nicht, dass diese Risiken tendenziell höher eingestuft werden und häufiger auftreten als ihre nicht-KI-basierten Vorgänger. Sie verbergen sich in Bereichen wie Cybersicherheit, Betrug, Reputationsrisiken oder Compliance.

2. Organisationen müssen akzeptieren, dass Prävention allein nicht mehr ausreicht.

Führende Unternehmen ordnen KI-Risiken nun drei Verteidigungsebenen zu, die Folgendem entsprechen AI Defender Modulare Architektur:

  • Risikoprävention – Dazu gehört nun auch, Angriffe vorherzusehen, die das Vertrauen der Menschen und KI-generierte Inhalte ausnutzen, und nicht nur bekannte Bedrohungen zu blockieren.
  • KI-gestützte Identitätsprüfung
  • Geräte- und Sitzungsintegrität
  • Schutz der Kommunikation von Führungskräften
  • Bedrohungserkennung und -überwachung kombiniert technische Anomalieanalyse mit Verhaltens- und Medienbeobachtung und trägt der Tatsache Rechnung, dass sich viele KI-basierte Angriffe eher in Kommunikationsmustern als im Code manifestieren.
  • Kontinuierliche Überwachung auf Signale und Anomalien
  • KI vs. KI-Erkennung
  • Narrativ- und Medienbeobachtung
  • Untersuchung & Zuordnung – mit dem Fokus auf die Rekonstruktion von Ereignissen, die Zuordnung von Absichten und die Erstellung von verwertbaren Beweisen, um Organisationen in die Lage zu versetzen, auch dann effektiv zu reagieren, wenn sich Täuschung schneller ausbreitet als ihre anfänglichen Verteidigungsmaßnahmen.
  • Erklärbarkeit von KI-Warnungen
  • Zuordnung verdächtiger Aktivitäten
  • Beweiswürdige OSINT

3. Unternehmen müssen sich mit der menschlichen Dimension des KI-basierten Betrugs auseinandersetzen.

Mitarbeiter bleiben das Hauptangriffsziel für moderne Sicherheitslücken, doch die Art der Ausnutzung hat sich verändert. Ein zunehmend beobachtetes Muster bei KI-gestütztem Betrug sind intern wirkende Interaktionen anstelle von externen Angriffen. Mitarbeiter erhalten beispielsweise kurze Videoanrufe, scheinbar von der Personalabteilung, in denen sie um eine „kurze Identitätsprüfung“ gebeten werden, um ein Problem mit der Gehaltsabrechnung zu klären. Gesicht, Stimme und Markenlogo wirken authentisch. Die Anfrage selbst erscheint harmlos, ermöglicht aber im Laufe des Tages unbemerkt die Übernahme des Kontos.

Dieses Szenario verdeutlicht, warum KI-gestützter Betrug Kontext, Autorität und Timing ausnutzt und oft die Kommunikation von Führungskräften mit beunruhigender Präzision imitiert. In diesem Umfeld laufen traditionelle Sicherheitsschulungen Gefahr, zu bloßer Pflichterfüllung zu verkommen und lediglich Sicherheit ohne echte Widerstandsfähigkeit zu bieten.

Die Herausforderung besteht nicht nur im Bewusstsein, sondern auch in der Art und Weise, wie das Problem formuliert wird.

Das Problem neu formulieren (dies ist Schritt null).

Altes Denkmuster: „Man schult die Mitarbeiter so, dass sie keine Fehler machen.“

Neues Denkmodell: „Gehen Sie davon aus, dass Mitarbeiter ins Visier genommen, manipuliert und als Waffe eingesetzt werden.“

Training ist nicht Bildung.

Training ist Impfung plus Muskelgedächtnis.

Aus dieser Perspektive betrachtet: Welche Teams müssen geschult werden, um wiederkehrende Betrugsmuster zu erkennen?

Die 5 dominanten KI-Betrugsvektoren, die bestehen - durch Konsolidierung, Mitarbeiter – keiner von ihnen lässt sich durch Hinweisplakate aufhalten:

Vector Wie es in Wirklichkeit aussieht
Autoritäts-Spoofing Sprachnachricht für CEO/CFO, WhatsApp, Zoom Deepfake
Dringlichkeitsfallen „5 Minuten“, „vertraulich“, „Auf Vorstandsebene“
Kontextmanipulation Der Betrüger kennt echte Projekte, Namen und den Zeitplan.
Prozessmissbrauch „Einmal überspringen“, „später normal“
Werkzeugmissbrauch „Die KI hat grünes Licht gegeben“, „System bereits genehmigt“.

4. Organisationen müssen überdenken, was „Identität“ in einer Welt der synthetischen Realität bedeutet.

Da Deepfake-Stimmen und -Videos das Vertrauen in biometrische Verfahren untergraben, kann kein einzelner Faktor die Authentizität zuverlässig beweisen. Die Widerstandsfähigkeit beruht zunehmend auf der Anhäufung vieler schwacher Signale im Laufe der Zeit, wie Kontext, Kontinuität und Konsistenz über verschiedene Geräte, Sitzungen und externe Datenpunkte hinweg.

Offene und externe Daten, die lange Zeit als zweitrangig galten, gewinnen zunehmend an strategischer Bedeutung. In Kombination mit internen Verhaltenssignalen helfen sie, eine entscheidende Frage zu beantworten: Ist diese Identität oder Handlung in verschiedenen Kontexten nachvollziehbar? In einer Welt, in der fast alles erfunden werden kann, wird Kohärenz zu einem der wenigen verbliebenen Ankerpunkte des Vertrauens.

Ivan Shkvarun ist CEO und Mitbegründer von Social Links und der Autor der Darkside-KI-Initiative.

Mit über 15 Jahren Erfahrung in der Automatisierung in verschiedenen Branchen und Führungspositionen in internationalen IT-Unternehmen verfügt er über fundiertes Fachwissen in den Bereichen Technologie, Strategie und Innovation. Zuvor leitete er bei SAP Initiativen im Finanz- und öffentlichen Sektor und konzentrierte sich dabei auf Lösungen für Großunternehmen. Sein akademischer Hintergrund liegt in der Mathematik, ergänzt durch einen MBA mit Schwerpunkt Unternehmertum.

Seine Leidenschaft für Open Data begann vor über 20 Jahren und prägt seither seine Karriere. 2015 gründete er gemeinsam mit Partnern Social Links als Nebenprojekt, das sich bis 2018 zu einem schnell wachsenden Unternehmen entwickelte. Zwischen 2023 und 2025 wurde Social Links von Frost & Sullivan als weltweit führendes Unternehmen im Bereich Open Source Intelligence (OSINT) ausgezeichnet und betreut mittlerweile über 500 Kunden in mehr als 80 Ländern.