Künstliche Intelligenz
Cybersecurity-Experten verteidigen gegen AI-Cyberangriffe

Nicht jeder mit guten Absichten ist bereit, die Vorteile der künstlichen Intelligenz zu nutzen. Die Cybersicherheit ist sicherlich eines der Felder, in denen sowohl diejenigen, die ein bestimmtes Cybersystem verteidigen, als auch diejenigen, die es angreifen, die fortschrittlichsten Technologien nutzen.
In ihrer Analyse des Themas zitiert das World Economic Forum (WEF) ein Beispiel, bei dem im März 2019 “der CEO eines großen Energieunternehmens die dringende Überweisung von 220.000 Euro auf das Konto eines neuen osteuropäischen Lieferanten genehmigte, nachdem er glaubte, ein Gespräch mit dem CEO des Mutterunternehmens geführt zu haben. Innerhalb weniger Stunden war das Geld durch ein Netzwerk von Konten in Lateinamerika zu verdächtigen Kriminellen geflossen, die künstliche Intelligenz (AI) verwendet hatten, um die Stimme des CEO überzeugend zu imitieren.” Für ihren Teil zitiert Forbes ein Beispiel, bei dem “zwei Krankenhäuser in Ohio und West Virginia Patienten abwiesen, weil ein Ransomware-Angriff zu einem Systemausfall führte. Die Krankenhäuser konnten keine Notfallpatientenanfragen bearbeiten. Daher leiteten sie die eingehenden Patienten an nahegelegene Krankenhäuser weiter.”
Diese Cybersicherheitsbedrohung ist sicherlich der Grund, warum Equifax und das World Economic Forum die erste Future Series: Cybercrime 2025 einberiefen. Globale Cybersicherheitsexperten aus Wissenschaft, Regierung, Strafverfolgung und Privatwirtschaft werden sich in Atlanta, Georgia, treffen, um die Fähigkeiten zu überprüfen, die AI ihnen im Bereich der Cybersicherheit bieten kann. Auch das Capgemini Research Institute kam zu dem Schluss, dass der Aufbau von Cybersicherheitsverteidigungen mit AI für praktisch alle Organisationen unerlässlich ist.
In ihrer Analyse wies das WEF auf vier Herausforderungen bei der Verhinderung der Nutzung von AI bei Cyberkriminalität hin. Die erste ist die zunehmende Sophistikation der Angreifer – das Volumen der Angriffe wird steigen, und “könnte AI-gestützte Technologie auch die Fähigkeiten der Angreifer verbessern, ihre Anonymität und Distanz zu ihren Opfern in einer Umgebung zu bewahren, in der die Zuweisung und Untersuchung von Verbrechen bereits herausfordernd ist.”
Die zweite ist die Asymmetrie in den Zielen – während Verteidiger eine Erfolgsquote von 100 % haben müssen, benötigen Angreifer nur einmal Erfolg. “Während AI und Automatisierung die Variabilität und Kosten reduzieren, die Skalierbarkeit verbessern und Fehler begrenzen, können Angreifer auch AI nutzen, um das Gleichgewicht zu verschieben.”
Die dritte ist die Tatsache, dass “die Organisationen weiter wachsen, und somit auch die Größe und Komplexität ihrer Technologie- und Datenbestände, was bedeutet, dass Angreifer mehr Oberflächen haben, die sie erkunden und ausnutzen können. Um Angreifern einen Schritt voraus zu sein, können Organisationen fortschrittliche Technologien wie AI und Automatisierung einsetzen, um verteidigungsfähige ‘Engpässe’ zu schaffen, anstatt ihre Bemühungen gleichmäßig auf die gesamte Umgebung zu verteilen.”
Die vierte wäre, das richtige Gleichgewicht zwischen den möglichen Risiken und der tatsächlichen “operativen Ermöglichung” der Verteidiger zu erreichen. Das WEF ist der Meinung, dass “Sicherheitsteams einen risikobasierten Ansatz verwenden können, indem sie Governance-Prozesse und Materialitätsschwellen festlegen, operative Führungskräfte über ihre Cybersicherheitslage informieren und Initiativen identifizieren, um diese kontinuierlich zu verbessern.” Durch ihr Future Series: Cybercrime 2025-Programm suchen das WEF und seine Partner “nach den wirksamen Maßnahmen, die erforderlich sind, um diese Risiken zu mindern und zu überwinden.”
Für ihren Teil hat Forbes vier Schritte der direkten Nutzung von AI in der Cybersicherheit identifiziert, die von ihrem Mitwirkenden Naveen Joshi vorbereitet und in der folgenden Grafik dargestellt wurden:

In jedem Fall ist es sicher, dass sowohl Verteidiger als auch Angreifer im Bereich der Cybersicherheit ihre Nutzung von künstlicher Intelligenz weiterentwickeln werden, während die Technologie selbst ein neues Stadium der Komplexität erreicht.












