Connect with us

Sind Unternehmen auf die nächste Welle von AI-gesteuerten Cyberangriffen vorbereitet?

Cybersicherheit

Sind Unternehmen auf die nächste Welle von AI-gesteuerten Cyberangriffen vorbereitet?

mm

Durch die Analyse aktueller Trends können Experten vorhersagen, wie Cyberkriminelle in Zukunft künstliche Intelligenz nutzen werden. Mit diesen Informationen können sie die größten neuen Bedrohungen identifizieren und bestimmen, ob Unternehmen darauf vorbereitet sind. Sie können sogar eine Lösung finden.

Der Zustand von AI-Bedrohungen in den letzten Jahren

Obwohl die AI-Technologie relativ neu ist, ist sie bereits zu einem wichtigen Werkzeug für Hacker geworden. Diese Trends deuten darauf hin, dass AI-Cyberangriffe zunehmen.

1. Model-Manipulation

Indem sie große Sprachmodelle (LLMs) direkt angreifen, können Bedrohungsakteure das Modellverhalten manipulieren, die Ausgabegenauigkeit verringern oder persönlich identifizierbare Trainingsdaten offenlegen. Datenvergiftung und Prompt-Engineering sind gängige Angriffstechniken.

Einige Angriffe werden von Bedrohungsakteuren durchgeführt, die Chaos verursachen oder sensible Informationen stehlen wollen. Andere werden von unzufriedenen Künstlern durchgeführt, die ihre Kunstwerke vor dem AI-Scraping schützen wollen. Auf jeden Fall werden das Unternehmen und seine Endbenutzer negativ beeinträchtigt.

2. Identitätsangriffe

Im Jahr 2024 erhielt ein Ferrari-Manager mehrere WhatsApp-Nachrichten vom CEO, Benedetto Vigna. Vigna sprach über eine bevorstehende Übernahme und drängte seinen Mitarbeiter, eine Geheimhaltungsvereinbarung zu unterzeichnen. Er rief sogar an, um über die Finanzierung zu sprechen. Es gab jedoch ein Problem — es war nicht er.

Der Deepfake war fast perfekt und ahmte Vignas süditalienischen Akzent außergewöhnlich gut nach. Allerdings verriet eine leichte Unstimmigkeit in der Stimme dem Manager den Schwindel. Der Mitarbeiter fragte nach dem Titel eines Buches, das Vigna Tage zuvor empfohlen hatte, eine Frage, die nur der echte CEO beantworten konnte. Der Betrüger legte sofort auf.

AI kann die Stimme einer Person, ihr Browserverhalten, ihren Schreibstil und ihre Ähnlichkeit klonen. Wenn diese Technologie fortschreitet, wird es immer schwieriger, Deepfakes zu identifizieren. Die Betrüger setzen das Ziel oft in eine dringende Situation, um es davon abzuhalten, kleine Unstimmigkeiten in Frage zu stellen.

3. AI-Phishing

In der Vergangenheit konnte man eine Phishing-E-Mail durch das Vorhandensein von schlechtem Grammatik, verdächtigen Links, generischen Grüßen und unpassenden Anfragen identifizieren. Jetzt können Hacker mit Hilfe von Technologien zur natürlichen Sprachverarbeitung überzeugende Nachrichten mit fehlerfreier Grammatik erstellen.

Forscher fanden heraus, dass vollautomatisierte AI-gesteuerte Spear-Phishing-E-Mails eine Klickrate von 54% haben, was mit der Klickrate von Phishing-E-Mails, die von Menschen geschrieben werden, vergleichbar ist. Da diese Betrügereien überzeugender sind, werden sie immer häufiger.

4. Soziale Manipulation

Soziale Manipulation beinhaltet das Manipulieren einer Person, um eine Aktion auszuführen oder Informationen preiszugeben. AI ermöglicht es Hackern, schneller zu reagieren und überzeugendere Nachrichten zu erstellen. Jedes Modell zur natürlichen Sprachverarbeitung kann eine semantische Analyse durchführen, um den emotionalen Zustand des Empfängers zu identifizieren, was es wahrscheinlicher macht, dass er nachgibt.

Zusätzlich zu der Verbesserung sozialer Manipulationstechniken senkt die Technologie zum maschinellen Lernen die traditionellen Einstiegshürden und ermöglicht es Anfängern, komplexe Kampagnen durchzuführen. Wenn jeder zu einem Cyberkriminellen werden kann, kann jeder zu einem Ziel werden.

Die nächste Welle von datengesteuerten AI-Angriffen

Anfang 2026 werden AI-Angriffe voraussichtlich noch auf einem niedrigen Reifegrad sein. Sie werden jedoch exponentiell fortschreiten, wenn das Jahr voranschreitet, und es den Cyberkriminellen ermöglichen, in die Phasen der Optimierung, des Einsatzes und der Skalierung einzutreten. Sie werden bald in der Lage sein, vollautomatisierte Kampagnen zu starten. Bestätigte Beispiele von AI-Cyberangriffen werden nicht mehr lange selten sein.

Polymorphe Malware ist ein AI-aktivierter Virus, der seinen Code jedes Mal ändern kann, wenn er sich repliziert, um eine Erkennung zu vermeiden. Angreifer können die Payload über AI-Ökosysteme liefern, auf LLMs bei der Laufzeit aufrufen, um Befehle zu generieren, oder den Virus direkt in die LLM einbetten. Die Google Threat Intelligence Group entdeckte, dass Angreifer diesen Virus zum ersten Mal 2025 eingesetzt haben.

Die Malware-Familien sind PROMPTFLUX und PROMPTSTEAL. Während der Ausführung verwenden sie LLMs, um VBScript-Verwirrung und Vermeidungstechniken anzufordern. Sie vermeiden signaturebasierte Erkennung, indem sie ihren eigenen Code auf Anfrage verwirren.

Beweise deuten darauf hin, dass diese Bedrohungen noch in der Testphase sind — einige unvollständige Funktionen sind auskommentiert, und die Anwendungsprogrammieraufrufe sind begrenzt. Diese AI-Malware-Familien können noch in der Entwicklung sein, aber ihre bloße Existenz stellt einen riesigen Schritt in Richtung autonomer, adaptiver Angriffstechniken dar.

Forschung der NYU Tandon zeigt, dass LLMs bereits autonom Ransomware-Angriffe durchführen können, die als Ransomware 3.0 bezeichnet werden. Sie können Aufklärung durchführen, Payloads generieren und Erpressung personalisieren, ohne menschliche Beteiligung. Es erfordert nur natürliche Sprachprompts, die in den Binärcode eingebettet sind. Das Modell ergibt polymorphe Varianten, die sich an die Ausführungsumgebung anpassen, indem sie den schädlichen Code dynamisch bei der Laufzeit generieren.

Sind Unternehmen auf AI-Angriffe vorbereitet?

Trotz Milliarden von Ausgaben für Cybersicherheit haben private Unternehmen weiterhin Schwierigkeiten, mit der sich entwickelnden Bedrohungslandschaft Schritt zu halten. Machine-Learning-Technologie könnte bestehende Erkennungs- und Reaktionssoftware veralten lassen und die Verteidigung weiter komplizieren. Es hilft nicht, dass viele Unternehmen grundlegende Sicherheitsstandards nicht erfüllen.

Der 2024 DIB Cybersecurity Maturity Report befragte 400 IT-Fachleute in der US-Verteidigungsindustrie (DIB). Über die Hälfte der Befragten gaben an, dass sie Jahre von der Zertifizierung des Cybersecurity Maturity Model (CMMC) 2.0 entfernt seien, obwohl die entsprechende NIST-800-171-Zertifizierung bereits seit 2016 in DoD-Verträgen festgelegt wurde. Viele bewerten ihre Sicherheitslage als viel besser, als sie tatsächlich ist.

Die neuen CMMC-Anforderungen traten am 10. November 2025 in Kraft. In Zukunft werden alle DoD-Verträge ein bestimmtes Maß an CMMC-Konformität als Vertragsbedingung erfordern. Die neuen Regeln sollen die Cybersicherheit der DIB stärken, aber werden sie in der Ära von AI wirksam sein?

Ist defensive AI die Antwort?

Feuer mit Feuer bekämpfen, könnte der einzige Weg sein, um den unvermeidlichen Anstieg von AI-Angriffen zu bekämpfen. Mit defensiver AI können Organisationen Bedrohungen in Echtzeit dynamisch reagieren. Dieser Ansatz kommt jedoch mit eigenen Sicherheitslücken — das Modell gegen Manipulation zu sichern, erfordert kontinuierliche Überwachung und Prüfung.

Laut Harvard Business Review lassen herkömmliche Lösungen Unternehmen anfällig für AI-Cyberangriffe. Um Cyber-Resilienz zu erreichen, müssen sie Machine-Learning-Technologie verwenden, um Bedrohungen vorherzusagen und automatisch darauf zu reagieren.

Es gibt keine einfache Antwort darauf, ob defensive AI die Lösung für dieses Problem ist. Sollten Unternehmen ihre Ressourcen in die Bereitstellung unerprobter Machine-Learning-Tools oder in die Erweiterung ihrer IT-Teams investieren? Es ist unmöglich vorherzusagen, welche Investition sich langfristig auszahlen wird.

Große Unternehmen können mit automatisierter Cybersicherheit erhebliche Renditen erzielen, während kleine Unternehmen möglicherweise Schwierigkeiten haben, die Kosten zu rechtfertigen. Konventionelle Automatisierungstechnologie kann die Lücke zu einem viel niedrigeren Preis schließen, aber sie kann nicht auf dynamische Bedrohungen reagieren.

Steve Durbin, CEO des Information Security Forum, erklärt, dass die Übernahme von AI erhebliche Vorteile hat, aber auch erhebliche Nachteile. Zum Beispiel erleben Unternehmen oft eine Zunahme von Falschpositivwarnungen, die die Zeit der Sicherheitsteams verschwenden. Darüber hinaus kann eine Überbetonung von AI dazu führen, dass Teams übermäßig selbstsicher werden und Sicherheitslücken entstehen.

Navigation durch die AI-Bedrohungslandschaft

Es ist unmöglich, den genauen Umfang von AI in der Bedrohungslandschaft zu bestimmen, da Angreifer sie verwenden können, um schädlichen Code zu erstellen oder Phishing-E-Mails zu verfassen, anstatt sie bei der Laufzeit zu verwenden. Einzelne Cyberkriminelle und staatlich unterstützte Bedrohungsgruppen könnten sie im großen Maßstab verwenden.

Basierend auf den verfügbaren Informationen werden Model-Manipulation, AI-Phishing und polymorphe Malware die größten Cyberbedrohungen von 2026 sein. Cyberkriminelle werden wahrscheinlich weiterhin LLMs verwenden, um schädliche Payloads zu generieren, zu liefern und anzupassen, und sie werden hochwertige Branchen wie Finanzen sowie normale Menschen ins Visier nehmen.

Zac Amos ist ein Tech-Autor, der sich auf künstliche Intelligenz konzentriert. Er ist auch der Features-Editor bei ReHack, wo Sie mehr von seiner Arbeit lesen können.