Vordenker
Über KI: Geduld ist eine Tugend
In den fast zwei Jahren seit dem Start von ChatGPT hat die generative künstliche Intelligenz einen ganzen Technologie-Hype-Zyklus durchlaufen, von hochfliegenden, gesellschaftsverändernden Erwartungen bis hin zur Ankurbelung einer jüngsten Börsenkorrektur. Aber innerhalb der Cybersicherheitsbranche im Speziellen ist die Begeisterung für Generative AI (genAI) noch gerechtfertigt; es wird möglicherweise nur länger dauern, als Investoren und Analysten erwartet hatten, um den Sektor vollständig zu verändern.
Das deutlichste und aktuellste Zeichen für den Wechsel in der Hype war auf der Black Hat USA-Konferenz Anfang August, bei der generative AI eine sehr kleine Rolle bei Produktstarts, Demonstrationen und allgemeiner Buzz-Erzeugung spielte. Im Vergleich zur RSA-Konferenz nur vier Monate zuvor, bei der die gleichen Anbieter vertreten waren, war der Fokus auf AI bei Black Hat vernachlässigbar, was neutralen Beobachtern vernünftigerweise zu der Annahme führen würde, dass die Branche sich bewegt oder dass AI zu einer Ware geworden ist. Aber das ist nicht ganz der Fall.
Hier ist, was ich meine. Der transformativste Vorteil der Anwendung generativer AI innerhalb der Cybersicherheitsbranche wird wahrscheinlich nicht von generischen Chatbots oder der schnellen Überlagerung von AI auf Datenverarbeitungsmodelle kommen. Diese sind die Bausteine für fortgeschrittenere und effizientere Anwendungsfälle, aber im Moment sind sie nicht für die Sicherheitsbranche spezialisiert und führen daher nicht zu einer neuen Welle optimaler Sicherheitsergebnisse für Kunden. Vielmehr wird die wahre Transformation, die AI für die Sicherheitsbranche bieten wird, stattfinden, wenn AI-Modelle für Sicherheitsanwendungsfälle angepasst und abgestimmt werden.
Aktuelle allgemeine AI-Anwendungsfälle in der Sicherheit nutzen größtenteils Prompt-Engineering und Retrieval-Augmented Generation, was ein AI-Framework ist, das im Wesentlichen große Sprachmodelle (LLMs) ermöglicht, zusätzliche Datenressourcen außerhalb ihrer Trainingsdaten zu nutzen, indem es die besten Teile der generativen AI und der Datenbankabfrage kombiniert. Die Nützlichkeit dieser variiert stark je nach Anwendungsfall und wie gut ein Anbieters bestehende Datenverarbeitung den Anwendungsfall unterstützt; sie sind kein “Zauber”. Dies gilt auch für andere Anwendungen, die proprietäre Daten und Expertenwissen erfordern, das im Internet nicht weit verbreitet ist, wie medizinische Diagnose und juristische Arbeit. Es scheint wahrscheinlich, dass Unternehmen ihre Datenverarbeitungspipelines und Datenzugangssysteme anpassen werden, um generative AI-Anwendungsfälle zu optimieren. Auch generative AI-Unternehmen fördern die Entwicklung speziell abgestimmter Modelle, obwohl es noch zu sehen ist, wie gut dies für Anwendungen funktionieren wird, bei denen Qualität und Detail entscheidend sind.
Es gibt einige Gründe, warum diese Spezialisierung Zeit brauchen wird, um in der Sicherheitsbranche wirksam zu werden. Ein primärer Grund ist, dass die Anpassung dieser Modelle viele Menschen im Trainingsprozess erfordert, die Fachexperten in Cybersicherheit und AI sind, zwei Branchen, die Schwierigkeiten haben, genug Talent zu finden. Die Cybersicherheitsbranche hat weltweit etwa vier Millionen Fachkräfte weniger, laut dem Weltwirtschaftsforum, und Reuters schätzt, dass es in naher Zukunft eine Lücke von 50 % bei der Einstellung von AI-bezogenen Positionen geben wird.
Ohne eine Fülle von Fachleuten stehen die präzise Arbeit, die erforderlich ist, um AI-Modelle für die Arbeit in einem Sicherheitskontext anzupassen, wird verlangsamt. Die Kosten für die notwendige Datenwissenschaft, um diese Modelle zu trainieren, begrenzen auch die Anzahl der Organisationen, die die Ressourcen haben, um Forschung in die Anpassung von AI-Modellen zu betreiben. Es benötigt Millionen von Dollar, um die Rechenleistung zu bezahlen, die Spitzen-AI-Modelle erfordern, und dieses Geld muss von irgendwoher kommen. Selbst wenn eine Organisation die Ressourcen und das Team hat, um Forschung in die AI-Anpassung zu betreiben, geschieht der eigentliche Fortschritt nicht über Nacht. Es wird Zeit brauchen, um herauszufinden, wie man AI-Modelle am besten für die Sicherheitspraktiker und -analysten anreichert, und wie bei jedem neuen Werkzeug, wird es eine Lernkurve geben, wenn sicherheitsspezifische Sprachprozessoren, Chatbots und andere AI-gestützte Integrationen eingeführt werden.
Generative AI ist immer noch darauf vorbereitet, die Welt der Cybersicherheit in ein neues Paradigma zu versetzen, in dem die offensiven AI-Fähigkeiten, die Gegner und Bedrohungsakteure nutzen, mit den AI-Modellen der Sicherheitsanbieter konkurrieren, die darauf ausgelegt sind, Bedrohungen zu erkennen und zu überwachen. Die Forschung und Entwicklung, die notwendig sind, um diesen Wechsel zu fördern, werden einfach ein bisschen länger dauern, als die allgemeine Technologiegemeinschaft erwartet hat.












