Connect with us

Vordenker

Shadow-KI deckt ein größeres Versagen in der KI-Governance auf

mm
A professional woman in an office at night uses a laptop with a glowing, abstract digital interface floating in the air. The interface shows connected data nodes and windows, symbolizing the

Seit Jahren wurde das Insider-Risiko im Rahmen von Worst-Case-Szenarien betrachtet: bösartige Mitarbeiter, gestohlene Daten und Schäden, die erst im Nachhinein entdeckt wurden. Diese Betrachtungsweise war immer unvollständig. Im Zeitalter der KI wird sie zunehmend unhelpful.

Die meisten Insider-Risiken beginnen nicht mit Bosheit. Sie beginnen mit der täglichen Arbeit: Zusammenfassung eines Dokuments, Beantwortung eines Kunden, Beschleunigung eines Workflows oder schnelleres Versenden von Code. Immer öfter beinhalten diese alltäglichen Entscheidungen nun auch die KI.

Das ist, warum Shadow-KI wichtig ist. Broadly definiert, ist Shadow-KI die Verwendung von KI-Tools, -Agenten oder -Automatisierungen außerhalb der genehmigten Unternehmensüberwachung. In den meisten Fällen versuchen die Mitarbeiter nicht, die Richtlinien zu umgehen. Sie versuchen, ihre Arbeit zu erledigen. Das eigentliche Problem ist, dass die Governance nicht mit dem Wandel der Arbeit Schritt gehalten hat.

Diese Lücke ist nun messbar. Eine neue Ponemon-Studie ergab, dass 92 % der Organisationen angeben, dass generative KI die Art und Weise verändert hat, wie Mitarbeiter auf Informationen zugreifen und sie teilen, aber nur 18 % die KI-Governance vollständig in ihre Insider-Risikoprogramme integriert haben. KI ist bereits in die tägliche Arbeit eingebettet. Die Überwachung holt erst auf.

Shadow-KI ist nicht ein einziges Problem

Einer der größten Fehler, die Organisationen machen, ist, Shadow-KI als ein einziges, einheitliches Risiko zu behandeln. Es ist nicht.

Es gibt einen bedeutenden Unterschied zwischen der Verwendung von KI, um öffentliche Forschungsergebnisse zusammenzufassen, interne Verträge in einen nicht genehmigten Assistenten zu kopieren und es einem KI-Agenten zu erlauben, Daten abzurufen oder in Unternehmenssystemen zu handeln. Das Risiko ändert sich je nach Sensibilität der Daten, dem Grad der Autonomie und den Berechtigungen, die dem System erteilt werden.

Das ist, warum Blanket-Verbote selten funktionieren. Sie neigen dazu, das Verhalten weiter aus dem Blickfeld zu treiben, ohne die Bedingungen anzugehen, die das Verhalten an sich attraktiv gemacht haben. Aber übermäßig permissive Richtlinien sind nicht besser. Wenn alles erlaubt ist, wird die Governance zu einer bloßen Papierübung.

Ein effektiverer Ansatz besteht darin, zwischen zu unterscheiden:

  • Geringem Risiko bei der Unterstützung, wo KI die tägliche Arbeit mit begrenzter Exposition unterstützt
  • Hohem Risiko bei der Datenverarbeitung, wo sensible Informationen eingeben, transformiert oder geteilt werden und
  • Delegierter Autorität, wo KI-Systeme dazu berechtigt sind, Daten abzurufen, zu orchestrieren oder in verbundenen Umgebungen zu handeln.

Letztere Kategorie markiert den eigentlichen Wandel.

Wenn KI über die Inhaltsgenerierung hinausgeht und auf Abruf, Orchestrierung und Ausführung umschaltet, ändert sich die Sicherheitsfrage. Das Problem ist nicht länger nur, ob jemand ein nicht genehmigtes Tool verwendet. Es ist, welche Autorität einem System erteilt wurde, auf welche Daten es zugreifen kann und was es mit diesem Zugriff tun darf.

KI-Agents werden vertrauenswürdiger, vernetzter und in der Lage, unabhängig zu handeln. Das ist genau, warum traditionelle Insider-Risikomodelle ihre Grenzen zeigen.

Warum Shadow-KI mit delegierter Autorität das Risikomodell ändert

Die meisten Insider-Risikomodelle wurden entwickelt, um menschliches Verhalten zu bewerten: Nachlässigkeit, Missbrauch, Kompromiss oder bösartige Absicht. Diese Kategorien sind immer noch wichtig. Sie erfassen jedoch nicht länger das vollständige Bild.

Das wird besonders deutlich in Shadow-KI, wo das Tool oder der Agent nicht unbedingt sanktioniert, zentral verwaltet oder sogar für die Organisation sichtbar ist. In diesen Fällen ist das Risiko nicht nur, dass ein Mitarbeiter KI verwendet. Es ist, dass er möglicherweise ein benutzerkontrolliertes System mit Zugriff, Autonomie oder Integrationen verwendet, die das Unternehmen nicht vollständig versteht.

Heute kann eine Person legitimen Zugriff haben und eine scheinbar routinemäßige Anweisung erteilen. Aber in einem Shadow-KI-Szenario kann diese Anweisung an einen nicht genehmigten Assistenten, Plug-in, Agenten oder Workflow weitergeleitet werden, der sie weiter, schneller oder umfassender ausführen kann, als der Benutzer beabsichtigt. Das ist die eigentliche Konsequenz der delegierten Autorität.

Der Mensch liefert die Absicht, den Zugriff oder den Prompt. Das KI-System führt mit Geschwindigkeit, Skala und Ausdauer aus. Zusammen können sie Fehler in Weise verstärken, die herkömmliche Kontrollen nie dazu gedacht waren, zu enthalten.

Die Sorge ist nicht, dass KI-Systeme bösartig sind. Es ist, dass sie fehlerhafte Anweisungen, schwache Urteile oder unsichere Workflows mit Maschinengeschwindigkeit operationalisieren können. Und wenn dieses System außerhalb der genehmigten Überwachung sitzt, hat die Organisation möglicherweise wenig Einblick in die Daten, die es berührt hat, wohin diese Daten gegangen sind, welche Aktionen ausgeführt wurden oder wie man eingreift, wenn etwas schiefgeht.

Das ist, was Shadow-KI mit delegierter Autorität von der gewöhnlichen Verwendung nicht genehmigter Tools unterscheidet. Das Problem ist nicht länger auf einen Mitarbeiter beschränkt, der sensible Daten in eine falsche Schnittstelle einfügt. Es erstreckt sich auf nicht genehmigte Systeme, die Informationen abrufen, Aufgaben ketten, sich mit Unternehmensanwendungen verbinden und im Namen des Benutzers handeln, ohne die Schutzmechanismen, die eine genehmigte Umgebung normalerweise durchsetzen würde.

Das ist, warum Sicherheitsteams ein präziseres Modell für Insider-Risiken benötigen: eines, das nicht nur menschliches Verhalten berücksichtigt, sondern auch die Interaktion zwischen menschlicher Absicht und maschineller Ausführung.

Die Kosten von Shadow-KI sind bereits sichtbar

Dies ist kein zukünftiges Problem. Die Kosten sind bereits in aktuellen Insider-Risikotrends sichtbar.

Die Ponemon-Studie von 2026 ergab, dass die Kosten für Nachlässigkeit im Zusammenhang mit Insider-Risiken um 17 % auf 10,3 Millionen US-Dollar gestiegen sind und damit zu einem Gesamtkostenbetrag von 19,5 Millionen US-Dollar für Insider-Risiken beitragen. Der Bericht identifiziert Shadow-KI als einen wichtigen Beitrag, der normales Produktionsverhalten in eine anhaltende Quelle für Datenexposition verwandelt.

Sensible Materialien werden in öffentliche oder nicht genehmigte KI-Tools eingeben. KI-Notiznehmer erfassen vertrauliche Meetings. Agente-Tools funktionieren mit begrenzter Sichtbarkeit in Umgebungen, die nie für diese Art von autonomen Interaktionen konzipiert wurden.

Dies sind normalerweise keine bösartigen Akte. Es sind normale Arbeitsplatzverhaltensweisen, die in Systemen mit schwachen Schutzmechanismen und unvollständiger Überwachung ablaufen.

Das ist, was Shadow-KI so bedeutsam macht. Es führt nicht einfach eine neue Kategorie von Risiken ein. Es erhöht die Skala, Geschwindigkeit und Kosten von Nachlässigkeit, indem es kleine Fehler einfacher wiederholbar und schwerer zu erkennen macht.

Warum das Verbot von KI-Tools nicht die Antwort ist

KI-Tools sind nun zu nützlich, zu zugänglich und zu sehr in die tägliche Arbeit eingebettet, um sie allein durch Verbote zu verwalten. Wenn Organisationen sich nur auf Verbote verlassen, treiben sie den Einsatz oft in weniger sichtbare Kanäle.

Eine bessere Reaktion beginnt mit Sichtbarkeit. Sicherheitsteams müssen verstehen, welche KI-Tools verwendet werden, welche Daten in sie fließen, welche Ausgaben generiert werden und welche Systeme dazu berechtigt sind, im Namen eines Benutzers zu handeln.

Ebenso wichtig ist es, dass die Governance widerspiegelt, wie die Arbeit tatsächlich stattfindet – und nicht, wie die Richtlinie annimmt, dass sie stattfindet.

Das bedeutet, die KI-Governance innerhalb des Insider-Risikomanagements zu platzieren, anstatt sie als separate Compliance-Initiative zu behandeln. Wenn Mitarbeiter und KI-Systeme beide auf Informationen zugreifen, sie transformieren und bewegen, gehören sie in dasselbe Modell der Sichtbarkeit, Rechenschaftspflicht und Kontrolle.

Die Organisationen, die dies richtig machen, werden nicht diejenigen sein, die die meisten Tools verbieten. Sie werden diejenigen sein, die klar zwischen verantwortungsvoller Experimentierung und materiellem Risiko unterscheiden können.

Shadow-KI ist kein vorübergehendes Governance-Problem. Es ist eine frühzeitige Warnung, dass die Arbeit sich schneller verändert hat als die Überwachung. Die Herausforderung besteht nun nicht darin, das Geschäft zu verlangsamen. Es besteht darin, die gleiche Disziplin anzuwenden, die die Insider-Risikomanagement verbessert hat, auf eine neue Betriebsrealität – eine, in der menschliches Urteil und maschinelle Ausführung zunehmend Seite an Seite arbeiten.

Rajan Koo ist der CTO und Leiter von DTEX’s Insider Investigations & Intelligence (i3)-Team. Er ist verantwortlich für die Entwicklung, Implementierung und den Betrieb von Technologien, um Insider-Risiken daran zu hindern, zu Insider-Bedrohungen zu werden. Rajan hat eine wichtige Rolle bei der Etablierung von DTEX’s privatsphärenfreundlichem Ansatz zur Insider-Risikomanagement gespielt. Er hat auch mehrere hochkarätige Insider-Bedrohungsuntersuchungen geleitet, die zu erfolgreichen Verurteilungen und Freisprüchen geführt haben.