Vernetzen Sie sich mit uns

Vordenker

Neue Sicherheitsrisiken durch die rasche Einführung von GenAI, denen sich Unternehmen stellen müssen

mm mm

Generative KI (GenAI) hat sich von einer Kuriosität zu einer zentralen Kraft in der Unternehmens-IT entwickelt. Ihre Fähigkeit, Texte, Code, Bilder und Erkenntnisse bedarfsgerecht zu generieren, macht sie unverzichtbar für Mitarbeiter, die Komplexität reduzieren und die Produktivität steigern wollen. Doch mit dieser Innovation und Effizienz geht ein erhebliches Risiko einher.

In Gesprächen mit Führungskräften und Verantwortlichen für KI-Governance aus verschiedenen Branchen taucht immer wieder ein Thema auf: Datensicherheit hat sich von einem wichtigen Anliegen zum zentralen Punkt ihrer Strategie entwickelt und ist nun die entscheidende Herausforderung bei der KI-Einführung. Anders als herkömmliche Software oder frühere Generationen des maschinellen Lernens verändert GenAI den Prozess der Datensicherung in Unternehmen grundlegend.

Eine aktuelle MIT-Studie Eine Studie ergab, dass 95 % der GenAI-Pilotprojekte in Unternehmen scheitern. Das liegt nicht an der Technologie selbst, sondern daran, dass Unternehmen die notwendigen Governance- und Sicherheitsrahmen für den angemessenen und verantwortungsvollen Einsatz von GenAI vermissen. In einer weiteren MIT-StudieUnternehmensführer nannten Datensicherheit als größtes Geschäfts- und Sicherheitsrisiko, das eine schnellere KI-Einführung behindert. Darüber hinaus gilt „Schatten-KI“, also die nicht genehmigte Nutzung öffentlicher Tools durch Mitarbeiter, weithin als Treiber für rasant steigende Datenrisiken, die außerhalb der Unternehmenskontrolle liegen.

Das Prinzip der minimalen Berechtigungen ist ein Sicherheitsmodell, bei dem jeder Entität – sei es ein Benutzer, ein Programm oder ein Prozess – nur die minimal erforderlichen Zugriffsrechte und Berechtigungen erhält, um ihre legitimen Funktionen auszuführen. GenAI stellt dieses Paradigma jedoch völlig auf den Kopf: Das Prinzip der minimalen Berechtigungen selbst wird zu einer Einschränkung, die mit der Funktionsweise dieser Systeme kollidiert. Denn GenAI-Tools für Unternehmen erzielen tendenziell höhere Produktivitätssteigerungen, wenn sie Zugriff auf mehr Geschäftsdaten und Geschäftskontext haben.

Mit der zunehmenden Verbreitung von GenAI entdecken Anwender ständig neue Anwendungsbereiche, die meist aus spontanen Experimenten und Neugierde entstehen und nicht auf zentralisierter, geschäftsorientierter Planung beruhen. Kann eine Organisation die Aufgaben, für die GenAI eingesetzt werden soll, oder die benötigten Datentypen nicht definieren, lässt sich das Prinzip der minimalen Berechtigungen nicht umsetzen. Zudem kann ein Nutzer zwar über die entsprechenden Zugriffsrechte auf einen Datensatz verfügen und diesen rechtmäßig als Eingabe für ein GenAI-Tool bereitstellen, doch sobald die Daten eingelesen sind, unterliegen sie nicht mehr den ursprünglichen Berechtigungen des Nutzers. Stattdessen können sie in das Modell integriert, in zukünftigen Ausgaben dargestellt oder anderen Nutzern desselben Tools zugänglich gemacht werden. Da GenAI die Zugriffskontrollen der Daten nicht übernimmt, ist das Prinzip der minimalen Berechtigungen praktisch nicht durchsetzbar.

Zu berücksichtigende GenAI-Expositionen

GenAI schafft eine riesige und ständig wachsende Datenoberfläche, die die Datenverwaltung und -sicherheit in Unternehmen auf vielfältige und miteinander verbundene Weisen erschwert. Dazu gehören:

Eingangsleckage GenAI kann Daten in ihrer Rohform verarbeiten, darunter Text, Bilder, Audio, Video und strukturierte Daten. Endnutzer können GenAI-Tools nun mit minimalem Aufwand und ohne große Fachkenntnisse auf neue Datensätze anwenden. Anstatt auf sorgfältig kuratierte, strukturierte Tabellen mit definierten Schemata und Beziehungen beschränkt zu sein, können diese Datensätze beispielsweise Aufzeichnungen von Verkaufsgesprächen, CRM-E-Mail-Notizen, Kundendienstprotokolle und vieles mehr umfassen. In der Praxis geben Mitarbeiter hochsensible Geschäftsinformationen an die Tools weiter, darunter personenbezogene Kundendaten, geistiges Eigentum, Finanzprognosen und sogar Quellcode.

Ausgabebelichtung - Generative Modelle konsumieren nicht nur Daten, sondern synthetisieren sie. Eine Eingabeaufforderung kann unbeabsichtigt Erkenntnisse aus verschiedenen Datensätzen gewinnen und diese Nutzern ohne entsprechende Genehmigung zugänglich machen. In manchen Fällen können die Ergebnisse sogar Daten „halluzinieren“, die legitim erscheinen, aber Fragmente realer, hochsensibler Trainingsdaten enthalten.

GenAI-Tools arbeiten effizienter, wenn sie Kontextinformationen zur jeweiligen Aufgabe erhalten. Daher verarbeitet GenAI nicht nur vorhandene Informationen, sondern die Nutzer erstellen auch neue Daten in Form ausführlicher, detaillierter Eingabeaufforderungen, die den Geschäftskontext, interne Prozesse und andere potenziell sensible oder geschäftskritische Informationen dokumentieren.

Barrierefreiheit ohne Aufsicht - Herkömmliche Unternehmenssysteme erforderten die Einbindung von Anbietern und die Bereitstellung von IT-Ressourcen. Heute ist GenAI allgegenwärtig – in Microsoft Office-Suiten, Browsern, Chat-Tools und SaaS-Plattformen. Mitarbeiter können es sofort nutzen und dabei jegliche Governance umgehen. Dieser reibungslose Zugriff befeuert „Schatten-KI“, und jede nicht genehmigte Nutzung von GenAI birgt das Potenzial für einen unbemerkten, massenhaften und außerhalb der Governance-Perimeter eines Unternehmens stattfindenden Datenabfluss.

Risiko der Lieferkette zweiter Ebene Ein Anbieter mag zwar sicher erscheinen, ist aber häufig auf Subunternehmer wie Cloud-Hoster, Annotationsdienste oder externe KI-Labore angewiesen. Jeder dieser Anbieter hat seine eigenen Endbenutzer-Lizenzvereinbarungen (EULAs) und Richtlinien. Sensible Unternehmensdaten können so durch viele unüberschaubare Hände wandern, die Verantwortung liegt jedoch weiterhin beim Unternehmen. Beispielsweise könnte ein Anbieter, der den Onboarding-Prozess bereits abgeschlossen hat, nun ein GenAI-Tool verwenden, das die Nutzung der Unternehmensdaten als Trainingsdaten ermöglicht – mit erheblichen Folgen für nachfolgende Prozesse.

Governance-Lücken bei Schulungsdaten Sobald Daten in ein KI-Modell gelangen, ist die Kontrolle praktisch verloren. Unternehmen können die Verwendung ihrer Informationen nicht ohne Weiteres rückgängig machen oder steuern. Geschütztes Wissen kann fortbestehen und in den Ergebnissen auftauchen, lange nachdem seine Quelle in Vergessenheit geraten ist. Uns ist noch kein GenAI-Tool bekannt, das die Löschung aufgenommener Informationen ermöglicht, ähnlich wie es in Datenschutzgesetzen wie der Datenschutz-Grundverordnung (DSGVO) oder dem California Consumer Privacy Act (CCPA) vorgesehen ist. Die Implementierung solcher Prozesse ist unwahrscheinlich, solange keine regulatorischen Vorgaben den Wandel vorantreiben.

Anwendungscoderisiko Künstliche Intelligenz (KI) schreibt zunehmend den Code, der Geschäftssystemen zugrunde liegt. Entwickler, die GenAI-Tools wie Microsoft Copilot zur Codegenerierung verwenden, können unwissentlich unsichere Abhängigkeiten einführen, Sicherheitslücken verbreiten oder Code unter widersprüchlichen Open-Source-Lizenzen einbetten. Einmal im Einsatz, verankern sich diese Schwachstellen in der Software-Lieferkette.

Umgang mit GenAI-Risiken

GenAI ist bereits in Unternehmensprozesse integriert. Die Frage für Unternehmen lautet daher nicht, ob sie es einführen, sondern wie sie dies verantwortungsvoll tun können. Die Einführung von GenAI ohne entsprechende Governance birgt das Risiko kostspieliger Datenschutzverletzungen, behördlicher Strafen und Reputationsschäden. Ein Verbot hingegen führt lediglich dazu, dass Mitarbeiter auf nicht genehmigte Lösungen zurückgreifen. Der einzige Weg nach vorn ist die Bereitstellung von GenAI in Verbindung mit Transparenz und Kontrolle.

Die Steuerung von GenAI erfordert kontextbezogene Transparenz – nicht nur hinsichtlich der Unternehmensdaten, ihres Speicherorts und der Zugriffsberechtigten, sondern auch hinsichtlich der GenAI-Nutzung. Unternehmen müssen erkennen können, welche Tools verwendet werden, welche Eingabeaufforderungen eingegeben werden und ob sensible Daten das System verlassen. Darauf aufbauend können sie geeignete Kontrollmechanismen implementieren, um Eingabeaufforderungen und Ausgaben in Echtzeit zu überwachen, riskante Sitzungen oder anomale Datenflüsse zu kennzeichnen, nicht autorisierte Tools zu blockieren, sensible Eingabeaufforderungen zu filtern, bevor sie das System verlassen, sensible Daten bei der Eingabe in Eingabeaufforderungen zu anonymisieren und rollenbasierte Beschränkungen für KI-gestützte Erkenntnisse durchzusetzen.

GenAI stellt eine völlig neue Ebene an Unternehmensrisiken und -chancen dar. Um sie zu managen, ist die Denkweise erforderlich, dass Sicherheit kein Innovationshemmnis ist, sondern die Grundlage bildet, die sie sicher macht.

Dr. Shashanka ist leitender Wissenschaftler und Mitbegründer von KonzentrischVor seinem Eintritt bei Concentric war Dr. Shashanka als Geschäftsführer des Data-Science- und Machine-Learning-Teams von Charles Schwab tätig. Er war Mitgründer und Chief Scientist von PetaSecure, bevor das Unternehmen von Niara übernommen wurde.

Lane Sullivan fungiert als Senior Vice President und Chief Information Security and Strategy Officer bei Konzentrische KILane leitet das globale Cybersicherheitsprogramm des Unternehmens und beeinflusst die Produktstrategie zur Verbesserung der Datensicherheit und KI-Governance. Zuvor war Lane als Senior Vice President und Chief Information Security Officer bei Magellan Health tätig und konzentrierte sich dort auf die Einhaltung von Vorschriften in einem stark regulierten Umfeld. Weitere Erfahrung umfasst die Leitung eines Cybersicherheitsprogramms im Wert von mehreren Millionen Dollar bei der Ingram Content Group sowie die Infrastrukturleitung bei C&S Wholesale Grocers. Lanes Führungserfahrung reicht zurück bis zu JT Investments, wo er für Betrieb und Technologie verantwortlich war, und Basin Home Health & Hospice Inc., wo er bedeutende Fortschritte in der IT des Gesundheitswesens erzielte. Lane verfügt über einen Master-Abschluss in Computer- und Informationssystemsicherheit von der Western Governors University, der seinen Bachelor-Abschluss in IT-Management von derselben Universität ergänzt.