Stummel Generative KI in der Cybersicherheit: Das Schlachtfeld, die Bedrohung und jetzt die Verteidigung – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Generative KI in der Cybersicherheit: Das Schlachtfeld, die Bedrohung und jetzt die Verteidigung

mm

Veröffentlicht

 on

Das Schlachtfeld

Was als Aufregung über die Fähigkeiten der generativen KI begann, hat sich schnell in Besorgnis verwandelt. Generative KI-Tools wie ChatGPT, Google Bard, Dall-E usw. sorgen aufgrund von Sicherheits- und Datenschutzbedenken weiterhin für Schlagzeilen. Es führt sogar zu der Frage, was real ist und was nicht. Generative KI kann höchst plausible und damit überzeugende Inhalte hervorbringen. So sehr, dass Moderator Scott Pelley den Zuschauern am Ende eines kürzlich erschienenen 60-Minuten-Segments über KI diese Aussage hinterließ: „Wir schließen mit einer Anmerkung, die noch nie auf 60 Minutes erschienen ist, aber eine, die Sie in der KI-Revolution vielleicht oft hören: Die vorherige wurde mit 100 % menschlichen Inhalten erstellt.“

Der Cyberkrieg der generativen KI beginnt mit diesen überzeugenden und realen Inhalten und auf dem Schlachtfeld nutzen Hacker die generative KI, indem sie Tools wie ChatGPT usw. verwenden. Für Cyberkriminelle ist es extrem einfach, insbesondere für diejenigen mit begrenzten Ressourcen und keinerlei technischen Kenntnissen. um ihre Verbrechen durch Social Engineering, Phishing und Imitationsangriffe zu begehen.

Die Drohung

Generative KI hat die Macht, immer ausgefeiltere Cyberangriffe voranzutreiben.

Da die Technologie mit Leichtigkeit solch überzeugende und menschenähnliche Inhalte erzeugen kann, sind neue Cyber-Betrügereien, die KI nutzen, für Sicherheitsteams schwieriger zu erkennen. KI-generierte Betrügereien können in Form von Social-Engineering-Angriffen erfolgen, wie etwa Multi-Channel-Phishing-Angriffen über E-Mail- und Messaging-Apps. Ein Beispiel aus der Praxis könnte eine E-Mail oder Nachricht sein, die ein Dokument enthält, das von einem Drittanbieter über Outlook (E-Mail) oder Slack (Messaging-App) an einen Unternehmensleiter gesendet wird. Die E-Mail oder Nachricht fordert sie auf, darauf zu klicken, um eine Rechnung anzuzeigen. Mit generativer KI kann es nahezu unmöglich sein, zwischen einer gefälschten und einer echten E-Mail oder Nachricht zu unterscheiden. Deshalb ist es so gefährlich.

Eines der alarmierendsten Beispiele ist jedoch, dass Cyberkriminelle mit generativer KI Angriffe in mehreren Sprachen durchführen können – unabhängig davon, ob der Hacker die Sprache tatsächlich spricht. Ziel ist es, ein weites Netz auszuwerfen, damit Cyberkriminelle die Opfer nicht aufgrund der Sprache diskriminieren.

Die Weiterentwicklung der generativen KI signalisiert, dass das Ausmaß und die Effizienz dieser Angriffe weiter zunehmen werden.

Die Verteidigung

Die Cyberverteidigung für generative KI ist bekanntermaßen das fehlende Puzzleteil. Bis jetzt. Indem wir Maschine-gegen-Maschine-Kämpfe einsetzen oder KI gegen KI einsetzen, können wir uns gegen diese neue und wachsende Bedrohung verteidigen. Doch wie soll diese Strategie definiert werden und wie sieht sie aus?

Erstens muss die Industrie handeln, um Computer gegen Computer statt Mensch gegen Computer auszuspielen. Um diese Bemühungen fortzusetzen, müssen wir fortschrittliche Erkennungsplattformen in Betracht ziehen, die von der KI erzeugte Bedrohungen erkennen und die Zeit bis zur Meldung sowie die Zeit bis zur Lösung eines Social-Engineering-Angriffs, der von generativer KI ausgeht, verkürzen können. Etwas, wozu ein Mensch nicht in der Lage ist.

Wir haben kürzlich einen Test durchgeführt, wie das aussehen kann. Wir haben ChatGPT eine sprachbasierte Rückruf-Phishing-E-Mail in mehreren Sprachen erstellen lassen, um zu sehen, ob eine Natural Language Understanding-Plattform oder eine erweiterte Erkennungsplattform sie erkennen kann. Wir gaben ChatGPT die Aufforderung: „Schreiben Sie eine dringende E-Mail und bitten Sie jemanden, wegen einer letzten Mitteilung zu einer Softwarelizenzvereinbarung anzurufen.“ Wir haben ihm auch befohlen, es auf Englisch und Japanisch zu schreiben.

Die fortschrittliche Erkennungsplattform konnte die E-Mails sofort als Social-Engineering-Angriff kennzeichnen. ABER native E-Mail-Kontrollen wie die Phishing-Erkennungsplattform von Outlook konnten dies nicht. Schon vor der Veröffentlichung von ChatGPT erwiesen sich Social Engineering-Angriffe über konversationsbasierte, sprachbasierte Angriffe als erfolgreich, da sie herkömmliche Kontrollen umgehen konnten und ohne Link oder Payload in Posteingängen landeten. Ja, zur Verteidigung ist ein Maschinenkampf erforderlich, aber wir müssen auch sicher sein, dass wir wirksame Artillerie einsetzen, beispielsweise eine fortschrittliche Erkennungsplattform. Wer über diese Werkzeuge verfügt, ist im Kampf gegen generative KI im Vorteil.

Wenn es um das Ausmaß und die Plausibilität von Social-Engineering-Angriffen durch ChatGPT und andere Formen der generativen KI geht, kann die Maschine-zu-Maschine-Abwehr ebenfalls verfeinert werden. Dieser Schutz kann beispielsweise in mehreren Sprachen bereitgestellt werden. Es muss sich auch nicht nur auf die E-Mail-Sicherheit beschränken, sondern kann auch für andere Kommunikationskanäle wie Apps wie Slack, WhatsApp, Teams usw. verwendet werden.

Wachsam bleiben

Beim Scrollen durch LinkedIn stieß einer unserer Mitarbeiter auf einen Social-Engineering-Versuch mit generativer KI. Es erschien eine seltsame „Whitepaper“-Download-Anzeige mit etwas, das man nur großzügig als „bizarro“-Werbemotiv bezeichnen kann. Bei näherer Betrachtung sah der Mitarbeiter ein verräterisches Farbmuster in der unteren rechten Ecke, das auf Bildern eingeprägt war, die von Dall-E erstellt wurden, einem KI-Modell, das Bilder aus textbasierten Eingabeaufforderungen generiert.

Die Begegnung mit dieser gefälschten LinkedIn-Anzeige war eine deutliche Erinnerung an die neuen Gefahren von Social Engineering, die jetzt in Verbindung mit generativer KI auftreten. Es ist wichtiger denn je, wachsam und misstrauisch zu sein.

Das Zeitalter der Nutzung generativer KI für Cyberkriminalität ist angebrochen, und wir müssen wachsam bleiben und bereit sein, mit allen uns zur Verfügung stehenden Mitteln zurückzuschlagen.

Chris Lehman ist der Chief Executive Officer (CEO) von SafeGuard Cyber. Chris ist ein erfahrener leitender Angestellter mit mehr als 20 Jahren Erfahrung in der Arbeit für einige der wachstumsstärksten und erfolgreichsten Technologieunternehmen der Welt.