Künstliche Intelligenz
Wie AI zum #1-Kanal für Datenexfiltration wurde

Unternehmensleiter investierten Milliarden in AI-Tools, um die Produktivität und Innovation zu beschleunigen. Aber die neuesten Daten enthüllen ein ernstes Risiko, das viele Organisationen nicht kommen sahen. Die gleichen AI-Plattformen, die Mitarbeitern helfen, schneller zu arbeiten, sind zum größten Kanal für sensible Daten geworden, die die Unternehmensumgebung verlassen. Jüngste Erkenntnisse zeigen, dass 77 % der Mitarbeiter Daten in generative AI-Tools einfügen und 40 % der hochgeladenen Dateien personenbezogene Informationen oder Zahlungskartendaten enthalten. Dies geschieht gerade, im großen Maßstab, in Organisationen, die glauben, sie hätten angemessene Sicherheitskontrollen im Platz. Was es zeigt, ist eine grundlegende Trennung zwischen dem, wie Unternehmen denken, AI wird verwendet, und dem, was tatsächlich passiert, wenn Mitarbeiter täglich mit diesen Tools interagieren. Das Verständnis dieser Verschiebung ist der erste Schritt zur Entwicklung von Sicherheitsstrategien, die der neuen Realität entsprechen.
Wie AI zum neuen Vektor für Datenlecks wurde
Vor zwei Jahren existierte generative AI kaum in Unternehmensworkflows. Heute nutzen 45 % aller Unternehmensmitarbeiter aktiv AI-Plattformen, und 11 % aller Unternehmensaktivitäten finden auf diesen Tools statt. ChatGPT allein hat eine Mitarbeiterpenetration von 43 % erreicht, eine Rate, die andere Kommunikationsplattformen Jahrzehnte brauchten, um zu erreichen.
Die Geschwindigkeit dieser Adoption schuf ein Sicherheitsvakuum. Traditionelle Datenverlust-Präventions-Systeme wurden für Dateiübertragungen, E-Mail-Anhänge und Netzwerkverkehr entwickelt. Sie wurden nie dafür konzipiert, zu überwachen, was Mitarbeiter in Prompt-Boxen tippen oder in Chat-Schnittstellen einfügen. Dieser Blindpunkt ist zum primären Fluchtweg für sensible Informationen geworden.
Generative AI macht jetzt 32 % aller Datenbewegungen von Unternehmens- zu persönlichen Konten aus. Dies macht es zum größten Kanal für Datenexfiltration, der Dateifreigabe, E-Mail und jedem anderen Kanal, den Sicherheitsteams jahrelang zu sichern versucht haben. Das Problem ist nicht nur das Volumen, sondern auch die Art der Leckage. Wenn jemand ein Dokument auf einen Dateiserver hochlädt, gibt es einen Eintrag. Wenn sie Kundendaten in einen AI-Prompt einfügen, geschieht diese Übertragung oft außerhalb jedes Protokoll- oder Überwachungssystems.
Das Problem mit persönlichen Konten
Das Problem ist nicht die Nutzung von AI-Tools, sondern wie Mitarbeiter auf diese Tools zugreifen. Unternehmenssicherheitsmodelle gehen davon aus, dass Mitarbeiter Unternehmenskonten mit Single-Sign-On-Authentifizierung, Protokollierung und Überwachung verwenden. Die Daten zeigen, dass diese Annahme falsch ist, und etwa 67 % der AI-Nutzung über unverwaltete persönliche Konten stattfinden. Dies sind Gmail-Adressen, persönliche Microsoft-Konten oder direkte Anmeldungen, die Unternehmens-Identitätssysteme vollständig umgehen. Wenn jemand sich bei ChatGPT mit seiner persönlichen E-Mail-Adresse anmeldet, hat das Unternehmen keine Einsicht in die Fragen, die er stellt, die Daten, die er teilt, oder die sensible Informationen, die in den Antworten erscheinen könnten.
Auch wenn Mitarbeiter Unternehmenskonten verwenden, fehlt es oft an Federation. 83 % der ERP-Anmeldungen und 71 % der CRM-Anmeldungen erfolgen ohne Single-Sign-On. Dies bedeutet, dass die Unternehmensanmeldung fast keine mehr Sicherheit oder Sichtbarkeit bietet als ein persönliches Konto. Der Benutzername kann die Unternehmensdomäne haben, aber die Authentifizierungsumgehung ermöglicht die gleichen unsichtbaren Datenflüsse.
Kopieren und Einfügen: Der unsichtbare Datenleck
Traditionelle Datenverlust-Präventions-Strategien (DLP) wurden mit Fokus auf Dateisysteme entwickelt. Sie überwachen Uploads, Downloads und Anhänge. Aber die Daten zeigen, dass die eigentliche Quelle von Datenlecks nicht Dateien sind. Es ist ein Kopieren und Einfügen. 77 % der Mitarbeiter fügen Daten in generative AI-Tools ein, und 82 % dieser Aktivität stammen von unverwalteten persönlichen Konten. Im Durchschnitt führt jeder Mitarbeiter 15 Einfügevorgänge pro Tag mit seinen persönlichen Konten durch, und mindestens vier davon enthalten sensible personenbezogene Daten oder Zahlungskartendaten.
Dies bedeutet, dass sensible Informationen nicht mehr nur durch Datei-Uploads bewegt werden. Sie werden auch direkt in Prompts, Chat-Fenster und Textfelder injiziert. Diese dateilosen Übertragungen sind fast unsichtbar für traditionelle DLP-Lösungen. Sie geschehen mit hoher Frequenz, über mehrere Plattformen und außerhalb der Unternehmensüberwachung.
Das Ergebnis ist ein kontinuierlicher Strom von sensiblen Daten, der das Unternehmen in Weisen verlässt, die schwer zu erkennen sind. Kopieren und Einfügen ist zum neuen Exfiltrationskanal geworden, und AI-Tools sind das Nummer-eins-Ziel.
Sensible Dateien in unsanctionierten Zielen
Datei-Uploads bleiben ein zentraler Teil von Unternehmensworkflows. Aber die Ziele haben sich geändert. Mitarbeiter beschränken Uploads nicht mehr auf genehmigte Speicher oder E-Mail. Sie bewegen Dateien in generative AI-Tools, Consumer-Apps und Schatten-SaaS-Plattformen.
Die Daten zeigen, dass 40 % der Dateien, die in generative AI-Tools hochgeladen werden, personenbezogene oder finanzielle Daten enthalten. 41 % der Dateien, die in Dateispeicher-Plattformen hochgeladen werden, enthalten die gleichen. Fast 4 von 10 dieser Uploads geschehen über persönliche Konten.
Dies bedeutet, dass sensible Daten in Umgebungen fließen, in denen Unternehmen keine Sichtbarkeit und keine Kontrolle haben. Sobald eine Datei in ein persönliches Google Drive, eine WhatsApp-Chat oder einen AI-Prompt hochgeladen wird, ist sie effektiv außerhalb des Unternehmens. Sie kann nicht verfolgt, eingeschränkt oder gelöscht werden.
Die Ziele sind vielfältig. Unternehmens-Tools wie Egnyte und Zendesk erscheinen neben Consumer-Plattformen wie Canva, LinkedIn und WhatsApp. Diese Vermischung von Unternehmens- und Consumer-Ökosystemen verwischt die Grenzen, wo Unternehmensdaten residieren. Sie zeigt auch die Grenzen traditioneller DLP, die für genehmigte Kanäle und zentrale Kontrolle konzipiert wurde.
Was dies für die Unternehmenssicherheit bedeutet
Die traditionelle Sicherheitsperipherie ist zusammengebrochen. Es war früher möglich, Daten durch die Kontrolle von Netzwerken, die Sicherung von Endpunkten und die Überwachung von genehmigten Anwendungen zu kontrollieren. Dieses Modell geht davon aus, dass Arbeit innerhalb von Unternehmenssystemen stattfindet und nur gelegentlich externe Plattformen durch kontrollierte Kanäle nutzt.
Die Realität ist, dass Arbeit jetzt in Browsern, über Dutzende von Anwendungen, durch Unternehmens- und persönliche Konten, mit Methoden stattfindet, die keine Audit-Spur erstellen. Ein Mitarbeiter, der ein Kundenproblem recherchiert, sucht möglicherweise interne Systeme, fügt Ergebnisse in ChatGPT für eine Zusammenfassung ein, kopiert diese Zusammenfassung in Slack, um sie mit Kollegen zu teilen, und leitet sie über persönliche E-Mail weiter, um sie später zu überprüfen. Jeder Schritt beinhaltet sensible Daten, die durch Kanäle fließen, die traditionelle Tools nicht sehen können.
Der Browser ist zum primären Arbeitsplatz geworden, aber Sicherheitskontrollen haben nicht gefolgt. Mitarbeiter verbringen ihre Tage damit, zwischen Anwendungen zu wechseln, und die Daten zeigen, dass sie wenig Unterschied zwischen Unternehmens- und persönlichen Tools machen. Sie verwenden alles, was funktioniert, was bequem ist, was nicht darauf wartet, dass IT die Genehmigung erteilt. Dies schafft eine Umgebung, in der sensible Informationen ständig durch unsichtbare Kanäle nach außen fließen.
Die Unternehmenssicherheit für die AI-Ära neu denken
Die Lösung besteht nicht darin, AI-Tools zu blockieren oder persönliche Konten gänzlich zu verbieten. Diese Ansätze scheitern, weil sie gegen die Art, wie Mitarbeiter tatsächlich arbeiten, ankämpfen. Die Tools existieren, weil sie die Menschen produktiver machen. Persönliche Konten verbreiten sich, weil die Unternehmensbereitstellung langsam und restriktiv ist. Sicherheit, die diese Realitäten ignoriert, wird einfach umgangen.
Effektiver Schutz erfordert Sichtbarkeit auf Browser-Ebene, wo die Arbeit tatsächlich stattfindet. Dies bedeutet, nicht nur Datei-Uploads, sondern auch Einfügevorgänge, Formulareingaben, Prompt-Interaktionen und jede andere Art, wie Daten zwischen Systemen bewegt werden, zu überwachen. Es bedeutet, Richtlinien durchzusetzen, die zwischen Unternehmens- und persönlichen Konten unterscheiden, unabhängig von der Anwendung, die jemand verwendet.
Identitätskontrollen müssen tatsächlich durchgesetzt werden. Es reicht nicht aus, Single-Sign-On anzubieten, wenn Mitarbeiter immer noch Geschäftsanwendungen über persönliche Konten zugreifen können. Federated Authentication muss für jede Anwendung, die sensible Daten handhabt, obligatorisch sein, nicht optional. Nicht-federierte Unternehmensanmeldungen sollten als das Sicherheitsrisiko behandelt werden, das sie sind.
Die Zusammenfassung
AI ist zur am schnellsten wachsenden Kategorie in Unternehmenssoftware geworden. Es ist auch zum Nummer-eins-Kanal für Datenexfiltration geworden. 77 % der Mitarbeiter fügen Daten in AI-Tools ein. 40 % der Uploads enthalten sensible Informationen. Die Mehrheit dieser Aktivität geschieht über unverwaltete Konten. Die alte Sicherheitsperipherie existiert nicht mehr. Die meisten Arbeiten geschehen im Browser, und selbst einfache Aktionen wie das Einfügen von Text können zu Sicherheitsverletzungen führen. Unternehmen, die ihre Sicherheitsstrategien nicht an diese neue Realität anpassen, verlieren bereits die Kontrolle über ihre wertvollsten Daten.












