Connect with us

Vordenker

Aufdeckung der verborgenen Risiken von Shadow AI

mm

Es dauerte nicht lange, bis Unternehmen die weitverbreitete Nutzung von Generative AI (GenAI) unter ihren Mitarbeitern erlebten. Wenn es jedoch um GenAI-Risiken geht, sind die Tools, die innerhalb Ihrer Organisation bekannt sind, nicht diejenigen, über die Sie sich am meisten Sorgen machen sollten. Es sind diejenigen, über die Sie nichts wissen, die Sie nachts wach halten sollten.

Dank der schnellen Expansion von GenAI-Tools wie ChatGPT, Copilot, Gemini und Perplexity sowie vielen spezialisierten SaaS-basierten Assistenten adoptieren Mitarbeiter diese Tools schneller, als Sicherheitsteams damit Schritt halten können. Und diese Nutzung schafft einen schnell wachsenden blinden Fleck, der als Shadow AI bekannt ist.

Wenn Shadow AI Ihnen vertraut erscheint, liegt das daran, dass es sich von dem Begriff Shadow IT ableitet, der verwendet wird, um die Nutzung von nicht genehmigten Tools und Diensten am Arbeitsplatz zu beschreiben. Aber bei Shadow AI können die Einsätze sogar höher sein. Anstatt einer Rogue-Dateifreigabe kann Shadow AI dazu führen, dass sensible Daten in eine Chatbot-Prompt eingefügt, in externe Modelle aufgenommen und unbeabsichtigt Drittsystemen ausgesetzt werden.

Shadow AI stellt eine der am wenigsten sichtbaren, aber dringlichsten Bedrohungen für die Unternehmensdatensicherheit heute dar.

Was ist Shadow AI?

Shadow AI bezieht sich auf die nicht genehmigte Nutzung von AI-Tools – insbesondere GenAI – durch Mitarbeiter ohne das Wissen oder die Zustimmung der IT- oder Sicherheitsteams des Unternehmens. Innerhalb einer Organisation können Benutzer beispielsweise ein Marketing-Team sein, das mit großen Sprachmodellen (LLMs) Blog-Beiträge erstellt, ein Rechtsteam, das VertragsSprache in AI-Tools erkundet, oder Ingenieure, die mit kostenlosen GPT-Wrappern Code debuggen.

Und obwohl diese Experimente harmlos erscheinen mögen, muss das, was mit diesen Tools geteilt wird, nicht unbedingt harmlos sein. Es könnte sich um vertrauliche Strategie-Folien oder Kundeninformationen handeln. Diese Daten landen letztendlich in unverschlüsselten Prompts, ohne Governance und ohne Möglichkeit, zu verfolgen, was als Nächstes passiert.

Warum ist Shadow AI ein Problem?

Das Problem von Shadow AI ist problematisch, weil es nur einen Mitarbeiter mit guten Absichten und Zugang zu ChatGPT braucht, um ein Datensicherheitsrisiko zu schaffen. Im Gegensatz zu einem Hacker ist Shadow AI nicht böswillig, aber das macht es nicht weniger gefährlich. Jedes Mal, wenn sensible Daten einem Prompt hinzugefügt werden, werden sie potenziell dem Modell, dem Anbieter und jedem, der Zugang zu den Protokollen hat, ausgesetzt. Sie können sogar in einer Antwort auf eine andere Benutzeranfrage wieder auftauchen. Und das Schlimmste ist, dass Sie wahrscheinlich nie erfahren, dass es passiert ist.

Hier sind fünf Schlüsselrisiken von Shadow AI, auf die Sie achten sollten.

1. Datenlecks über Prompt-Eingaben – Prompt-Felder sind ein Datensicherheits-Schwarzes Loch. Sobald sensible Informationen wie Quellcode, M&A-Dokumente und Gehaltsdetails mit einem GenAI-Tool geteilt werden, sind sie außer Kontrolle. Selbst wenn der AI-Anbieter verspricht, dass die Daten nicht gespeichert werden, ist die Durchsetzung unklar und es gibt wenige Garantien hinsichtlich Training oder Telemetrie.

2. Fehlende Zugriffskontrollen oder Überwachungsprotokolle – Im Gegensatz zu genehmigten Unternehmens-Apps bieten die meisten GenAI-Tools keine rollenbasierten Zugriffskontrollen, granularen Berechtigungen oder Aktivitätsprotokolle, was bedeutet, dass Sicherheitsteams keine Sichtbarkeit darauf haben, wer auf welche Daten zugegriffen hat oder wann. Wenn ein Vorfall auftritt, gibt es nichts zu untersuchen.

3. Verstöße gegen Compliance-Vorschriften – Viele der zahlreichen Compliance-Regulierungen, denen Organisationen entsprechen müssen, verlangen, dass regulierte Daten auf sehr spezifische Weise gespeichert, verarbeitet und zugegriffen werden müssen. Das Einpflegen dieser Daten in ein externes AI-Modell kann gegen diese Regeln verstoßen und Ihre Organisation gegen rechtliche Risiken, Geldstrafen und obligatorische Datenschutzverletzungen aussetzen.

4. Verbreitung veralteter oder voreingenommener Informationen – GenAI-Tools liefern oft Antworten mit großer Zuversicht und präsentieren sie als Fakten, auch wenn sie sehr falsch sind. Die Verwendung dieser Ausgaben für Kundenmitteilungen, Compliance-Zusammenfassungen oder Finanzberichte ohne Validierung kann zu Geschäftsentscheidungen auf der Grundlage ungenauer Daten führen. Halluzinationen treten regelmäßig auf und scheinen nicht zu verschwinden, auch wenn diese LLMs intelligenter werden.

5. Shadow AI, die zu Shadow-Daten wird – Ausgaben von GenAI-Tools, einschließlich Zusammenfassungen und Code-Snippets, werden oft gespeichert, geteilt und wiederverwendet. Da sie außerhalb formaler Workflows erstellt wurden, werden diese Dateien zu unverfolgten, unklassifizierten und ungeschützten Shadow-Daten.

In den meisten Fällen hat niemand in der Sicherheit eine Ahnung, wenn ein Datenverlust auftritt. Diese realen Beispiele könnten in Ihrer Organisation passieren:

  • Ein junior Software-Ingenieur fügt proprietären Code in einen kostenlosen GPT-basierten Debugger ein.
  • Ein Vertriebsmitarbeiter füttert die Kundenliste des letzten Quartals in einen AI-E-Mail-Writer, um Upsell-Pitches zu generieren.
  • Ein HR-Manager verwendet ein externes AI-Tool, um Mitarbeiterzufriedenheitsumfragen auszuwerten.
  • Ein Finanzanalyst bittet ChatGPT, die Sprache sensibler Umsatzprognosen für Führungskräfte zu vereinfachen.
  • Ein Anwalt bittet GenAI, einen Vertrag unter Verwendung einer vertraulichen Klausel aus einem Kundenvertrag umzuschreiben.

Warum traditionelle Sicherheits-Tools Shadow AI übersehen

Legacy-Sicherheits-Stacks sind nicht für GenAI-Prompt-basierte Bedrohungen konzipiert. Zum Beispiel kann ein Firewall nicht browserbasierte AI-Tools blockieren. Ein CASB sieht nicht, was in Chat-Fenster eingetippt wird. Und ein SIEM wird nicht auf einen Benutzer aufmerksam, der ein LLM bittet, sensible IP zusammenzufassen.

Shadow AI operiert auf der Anwendungsebene und lebt im Browser, wo die Sichtbarkeit am schwächsten ist. Mitarbeiter verwenden auch ihre persönlichen Geräte. Es gibt kein Plugin, um sie zu stoppen, kein Wasserzeichen, um zu verfolgen, welche Daten geleckt wurden, und keine Warnung, wenn Daten die Grenze überschreiten. Und wenn es schließlich in einer DLP-Warnung erscheint, wenn es überhaupt passiert, sind die Daten bereits exponiert.

Wie man Shadow AI-Risiken identifiziert und behebt

Sie können nicht kontrollieren, was Sie nicht sehen, und bei GenAI sind die meisten Organisationen blind. Traditionelle Tools wurden nicht gebaut, um Prompt-basierte Interaktionen zu verstehen oder zu verfolgen, was passiert, nachdem ein Benutzer auf “Enter” klickt.

Es gibt jedoch neue AI-getriebene Sicherheitsansätze, die dieser Herausforderung gewachsen sind, um Organisationen zu helfen, Shadow-GenAI aus dem Dunkeln zu holen. Hier sind einige der Schutzmaßnahmen, die fortschrittliche Lösungen bieten:

Entdeckung von Shadow AI – Diese Tools identifizieren, welche GenAI-Anwendungen Ihre Benutzer verwenden, auch browserbasierte, die traditionelle Kontrollen umgehen. Sie analysieren Datenbewegungen, Zugriffsmuster und Kontext, um Verstöße ohne Endpoint-Agents oder invasive Überwachung zu erkennen.

Klassifizierung dessen, was sensibel ist – Moderner Lösungen verwenden kontextbewusste AI, um sowohl den Inhalt als auch den Kontext hinter den Daten zu verstehen. Das bedeutet, dass sie Risiken wie eine Umsatzprognose in einer PowerPoint-Folie oder Kundeninformationen in einem E-Mail-Entwurf flaggen können. Dies ist der Art von Inhalten, die Mitarbeiter ohne zweites Nachdenken in GenAI einpflegen könnten.

Verhinderung von riskantem Prompt-Verhalten – Sobald sensible Daten entdeckt und ihre Position identifiziert sind, hilft AI-Datensicherheit, sie vor der Exposition zu schützen. Diese Tools flaggen, schwärzen oder blockieren riskante Prompt-Eingaben, bevor sie das Unternehmen verlassen.

Beseitigung von Shadow-Daten – GenAI-Prompts erzeugen oft eine Welle neuer Dateien, wie Zusammenfassungen, Entwürfe und Antworten, die gespeichert, geteilt und vergessen werden. Fortschrittliche Datensicherheitsplattformen identifizieren diese nachgelagerten Artefakte, erkennen Expositionsrisiken (wie übermäßig zugängliche Berechtigungen oder unangemessene Speicherung) und beheben sie, bevor Datenverlust zu einer Schlagzeile wird.

Shadow AI ist kein theoretisches Risiko. Es ist real, es wächst, und es passiert in Ihrer Umgebung gerade jetzt, ob Sie es bemerken oder nicht. Das Verbot von GenAI-Tools ist nicht realistisch, aber das Ignorieren ist extrem riskant. Organisationen benötigen Sichtbarkeit, Kontrolle und Intelligenz bei der Verwendung von GenAI – nicht nur für das, was herauskommt, sondern auch für das, was hineingeht.

Es gibt neue Ansätze, die riskantes Verhalten aufdecken, unbeabsichtigte Exposition verhindern und den Daten-Chaos, den AI und Shadow AI hinterlassen, beseitigen.

Karthik Krishnan ist Gründer und CEO von Concentric.ai. Vor Concentric war Karthik VP, Security Products bei Aruba/HPE, wo er ihr Sicherheitsportfolio verwaltete (zuvor war Karthik VP, Products bei Niara, einem Sicherheitsanalyse-Unternehmen, das sich auf Benutzer- und Entitätsverhaltensanalyse konzentrierte, das von Aruba/HPE übernommen wurde). Karthik hat mehr als 20 Jahre Erfahrung in der Entwicklung und im Marketing und hatte führende Positionen in wichtigen Branchenorganisationen wie Intel, Microsoft, Juniper Networks, PGP Corporation, Symantec und Embrane. Karthik hält einen Bachelor-Abschluss in Ingenieurwesen vom Indian Institute of Technology, Madras, Indien und einen MBA mit Auszeichnung von der Kellogg School of Management, wo er ein F.C. Austin Scholar war.