Interviews
Kevin Paige, CISO bei ConductorOne – Interviewreihe

Kevin PaigePaige, CISO bei ConductorOne, ist ein erfahrener Cybersicherheitsexperte mit über 30 Jahren Erfahrung in den Bereichen Regierung, Unternehmens-IT und schnell wachsende Startups. Von seinem Standort in der San Francisco Bay Area aus leitet er die Strategie für Identitätssicherheit des Unternehmens und berät Organisationen zu moderner Mitarbeitersicherheit und Governance. Zuvor war Paige als CISO bei Uptycs, Flexport und MuleSoft tätig, wo er in Phasen rasanten Wachstums maßgeblich am Aufbau und der Skalierung von Sicherheitsprogrammen beteiligt war. Zu Beginn seiner Karriere bekleidete er Führungspositionen im Bereich Sicherheit und Infrastruktur bei Salesforce und xMatters und diente sowohl in der US Army als auch in der US Air Force. Neben seinen operativen Aufgaben engagiert er sich als Berater und Investor im Startup-Ökosystem der Cybersicherheit.
ConductorOne Das Unternehmen entwickelt eine Plattform für Identitätsmanagement und Zugriffsverwaltung, die speziell für moderne Cloud- und Hybridumgebungen konzipiert ist. Die Technologie bietet einheitliche Transparenz über Identitäten und Berechtigungen in Anwendungen, Infrastruktur und On-Premise-Systemen. So können Unternehmen Zugriffsprüfungen automatisieren, das Prinzip der minimalen Berechtigungen durchsetzen und identitätsbasierte Sicherheitsrisiken reduzieren. Durch die Kombination von Identitätsanalysen mit automatisierten Workflows unterstützt die Plattform Sicherheitsteams bei der Verwaltung von Zugriffen in großem Umfang und verbessert gleichzeitig Compliance und betriebliche Effizienz.
Sie blicken auf eine lange Karriere zurück, die militärische Cyberoperationen bei der US Air Force, Führungspositionen im Bereich Unternehmenssicherheit bei Firmen wie MuleSoft, Flexport und Salesforce sowie Ihre jetzige Tätigkeit als CISO bei ConductorOne umfasst. Wie hat sich Ihre Sichtweise auf Identitätssicherheit in all diesen Positionen entwickelt, und warum glauben Sie, dass Identität zu einem der wichtigsten Schlachtfelder in der modernen Cybersicherheit geworden ist?
Bei der Luftwaffe war die Identitätsverwaltung deutlich einfacher: Sicherheitsstufe, Zugriffsbeschränkung, alles hinter Firewalls – fertig. Bei MuleSoft ging es um Skalierbarkeit – die Bereitstellung von Tausenden von Nutzern für Hunderte von SaaS-Anwendungen ohne Sicherheitslücken. Bei Flexport verschwand der Perimeter vollständig, und die Identität war die einzige Kontrollinstanz, die unabhängig vom Standort der Nutzer funktionierte.
Bei ConductorOne durchläuft das Thema Identität derzeit seinen grundlegendsten Wandel. Es geht nicht mehr nur um Menschen, sondern auch um Maschinen, APIs, Servicekonten und KI-Agenten, die autonom agieren. Die Tools, die die meisten Unternehmen nutzen, wurden für eine Welt entwickelt, die es nicht mehr gibt.
Identität ist der entscheidende Faktor, weil sie alles berührt. Selbst die beste Endpunktsicherheit und Netzwerksegmentierung der Welt nützt nichts, wenn jemand die falschen Zugriffsrechte hat.
Ihr demnächst erscheinender Bericht „Future of Identity“ zeigt, dass 95 % der Unternehmen angeben, dass KI-Agenten bereits autonome IT- oder Sicherheitsaufgaben ausführen. Welche Aufgaben übernehmen diese Agenten aktuell, und wie schnell erwarten Sie, dass ihr Autonomiegrad zunimmt?
Was mich überrascht hat, war nicht die Verbreitung an sich, sondern die Geschwindigkeit. Letztes Jahr planten 96 % den Einsatz von Agenten. Dieses Jahr haben es bereits 95 % getan. Das ist kein allmählicher Anstieg, sondern ein sprunghafter Anstieg.
Agenten bearbeiten Helpdesk-Workflows, priorisieren Alarme, prüfen Zugriffsrechte, stellen Ressourcen bereit und beheben in manchen Fällen Probleme automatisiert. Was oft übersehen wird: 64 % der Unternehmen erlauben Agenten bereits, autonom zu handeln und erst im Nachhinein eine Überprüfung durchzuführen. Der Agent handelt zuerst, ein Mensch prüft später – wenn überhaupt.
Die Mitarbeiter im Helpdesk werden in zwölf Monaten Sicherheitsentscheidungen treffen. Die Frage ist nicht, ob die Autonomie zunimmt, sondern ob die Governance Schritt hält. Aktuell ist dies nicht der Fall.
Der Bericht hebt den Aufstieg nicht-menschlicher Identitäten hervor – darunter Anwendungsprogrammierschnittstellen (APIs), Bots und KI-Agenten. Warum nehmen diese Maschinenidentitäten so schnell zu, und warum haben viele Organisationen immer noch Schwierigkeiten, sie effektiv zu verwalten?
Drei zusammenwirkende Kräfte. Die Einführung von Cloud und SaaS erfordert für jede Integration eine eigene Identität. DevOps generiert Maschinenidentitäten in großem Umfang – für jede Pipeline, jeden Container und jeden Microservice. Und KI-Agenten schaffen eine völlig neue Kategorie, die nicht nur Zugriffsrechte verwaltet, sondern diese auch zur Entscheidungsfindung nutzt.
Organisationen haben Schwierigkeiten, weil die Tools dafür nicht entwickelt wurden. Traditionelles IAM geht von einer Person aus, die sich an- und abmeldet. Nicht-menschliche Identitäten sind permanent aktiv, reagieren nicht auf MFA, verfügen oft über persistente Anmeldeinformationen und sammeln Berechtigungen an, weil ihre Zugriffsrechte nicht wie die von Menschen überprüft werden.
Es gibt auch ein Problem mit den Eigentumsrechten. Wenn ein Entwickler ein Servicekonto erstellt und das Team wechselt, wem gehört es dann? Oft niemandem. Branchenstudien zeigen, dass 97 % der NHIs über übermäßige Berechtigungen verfügen. Das ist kein Problem der Tools – es ist eine Lücke in der Governance.
Fast die Hälfte der Unternehmen gibt an, dass nicht-menschliche Identitäten mittlerweile die Zahl der menschlichen Nutzer übersteigen. Dennoch hat nur ein geringer Prozentsatz der Unternehmen vollständige Transparenz darüber, worauf diese Identitäten Zugriff haben. Welche Risiken entstehen, wenn Unternehmen die Kontrolle über diese automatisierten Identitäten verlieren?
Drei Ebenen. Erstens: Kompromittierte Zugangsdaten. Nationale Gesundheitsinstitute (NHIs) verwenden häufig langlebige API-Schlüssel oder statische Token, die nicht rotieren. Ein Angreifer mit einem solchen Token hat dauerhaften Zugriff, der nicht dieselben Warnsignale auslöst wie ein kompromittiertes Benutzerkonto.
Zweitens, die Anhäufung von Berechtigungen. Integrationen, die mit Lesezugriff begannen, erhalten stillschweigend Schreibzugriff. Niemand entfernt alte Berechtigungen, weil niemand die Maschinenidentitäten überprüft.
Drittens – und das gewinnt schnell an Bedeutung – verstärken KI-Systeme beide Risiken. Ein kompromittiertes Servicekonto mit Lesezugriff auf eine Datenbank ist problematisch. Ein KI-System mit demselben Zugriff, das die gelesenen Daten selbstständig zusammenfassen, weitergeben und darauf reagieren kann, ist um ein Vielfaches schlimmer.
Unser Bericht zeigt, dass die Sichtbarkeit der nationalen Krankenversicherung (NHI) tatsächlich abnimmt – von 30 % auf 22 % im Jahresvergleich. Organisationen erkennen das Problem schneller, als sie es lösen können.
Viele Unternehmen sehen KI als Produktivitätsbeschleuniger, doch Ihre Forschung legt nahe, dass sie auch unbemerkt die Angriffsfläche vergrößern kann. Wie entstehen durch die Einführung von KI-Tools und -Agenten neue Sicherheitsrisiken im Zusammenhang mit Identitätsdaten?
Das größte unmittelbare Risiko besteht in der versehentlichen Überbelegung von Berechtigungen. Teams setzen einen KI-Agenten für einen Workflow ein, gewähren ihm aber einen größeren Zugriff als nötig, da die Festlegung von Berechtigungen für Maschinen schwieriger ist als für Menschen. Der Agent sieht nicht nur Support-Tickets, sondern die gesamte Kundendatenbank.
Hinzu kommt die Manipulation von Eingabeaufforderungen. Agenten, die externe Eingaben verarbeiten, können so manipuliert werden, dass sie unbeabsichtigte Aktionen ausführen. Verfügt der Agent über weitreichende Zugriffsrechte, verwandelt eine speziell präparierte Eingabeaufforderung einen hilfreichen Assistenten in ein Werkzeug zur Datenexfiltration.
Drittens gibt es Schatten-KI. Laut Gartner sind über 50 % der KI-Nutzung in Unternehmen nicht genehmigt. Jede unautorisierte Verbindung schafft neue Identitäten und Angriffsflächen, die dem Sicherheitsteam verborgen bleiben.
Ich habe es selbst erlebt: Jemand gewährte einem Agenten Zugriff auf interne Systeme, und innerhalb weniger Tage veranlasste ihn jemand dazu, die Vergütung und den Urlaubsplan des CEOs preiszugeben. Der Agent funktionierte wie vorgesehen. Das Problem lag im Zugriffsmodell.
Das Identitäts- und Zugriffsmanagement konzentrierte sich traditionell auf die Anmeldung von Mitarbeitern an Systemen. Wie muss sich die Identitätsgovernance weiterentwickeln, da autonome Softwareagenten zunehmend mit der Infrastruktur interagieren und Entscheidungen treffen?
Der grundlegende Wandel besteht von periodischer zu kontinuierlicher Kontrolle. Traditionelle Governance basiert auf vierteljährlichen Überprüfungen und jährlichen Rezertifizierungen. KI-Systeme hingegen arbeiten rund um die Uhr, treffen Tausende von Entscheidungen zwischen den Überprüfungszyklen und können ihr Verhalten basierend auf Modellaktualisierungen anpassen. Bis eine vierteljährliche Überprüfung ein übermäßig privilegiertes System aufdeckt, ist der Schaden bereits angerichtet.
Drei Dinge müssen sich ändern. Die Governance muss kontinuierlich sein – Zugriffe müssen in Echtzeit und nicht nach einem Zeitplan geprüft werden. Sie muss richtlinienbasiert statt rollenbasiert sein – dynamische Richtlinien für spezifische Aufgaben statt statischer Rollenzuweisungen. Und sie muss vollständig auditierbar sein – jede Agentenaktion muss protokolliert und bis zum jeweiligen Autor zurückverfolgbar sein.
Identitätsmanagement muss in Maschinengeschwindigkeit arbeiten, um Akteure in Maschinengeschwindigkeit zu steuern. Genau in dieser Diskrepanz liegt das Risiko.
ConductorOne beschreibt seine Plattform als hilfreich für Unternehmen, um menschliche und maschinelle Identitäten gleichermaßen zu schützen. Welche technischen Änderungen sind in der Identitätsinfrastruktur erforderlich, um KI-Agenten in Unternehmensumgebungen angemessen abzusichern?
Die größte Veränderung ist die Vereinheitlichung. Die meisten Organisationen verwalten menschliche Identitäten über ihren Identitätsanbieter und Maschinenidentitäten über ein Flickwerk aus Geheimnismanagern und manuellen Prozessen. KI-Agenten fallen in die Lücke zwischen diesen Welten.
Drei Dinge müssen erfüllt sein. Jeder KI-Agent benötigt eine eigenständige Identität – kein gemeinsam genutztes Servicekonto, keine Entwicklerzugangsdaten, sondern eine dedizierte Identität mit eigenem Lebenszyklus und Prüfprotokoll. Diese Identitäten benötigen bedarfsgerechten Zugriff – minimale Berechtigungen für eine bestimmte Aufgabe, die nach deren Abschluss wieder entzogen werden. Organisationen müssen zudem kontinuierlich überwachen, was Agenten tatsächlich mit ihren Zugriffsrechten tun, nicht nur, was ihnen erlaubt ist.
Bei ConductorOne verwalten wir menschliche und nicht-menschliche Identitäten über eine einzige Kontrollinstanz. Das ist die Zukunft der Branche: 45 % nutzen bereits IAM-Tools für die Verwaltung nicht-menschlicher Gesundheitsdaten, weitere 45 % planen dies innerhalb der nächsten 12 Monate. Die Verwaltung ausschließlich menschlicher Identitäten hat ausgedient.
Manche Organisationen versuchen, KI-Risiken zu managen, indem sie KI-Tools einschränken oder gänzlich verbieten. Ist dieser Ansatz angesichts Ihrer Beobachtungen in Unternehmen realistisch, oder führt er lediglich zu einer unkontrollierten und weniger transparenten Nutzung von KI?
Das treibt alles in den Untergrund. Jedes Mal. Ich habe das bei jeder Technologiewelle erlebt – BYOD, Cloud, SaaS. Wenn die Sicherheitsabteilung Nein sagt, geben die Leute nicht auf. Sie sagen es der Sicherheitsabteilung einfach nicht mehr.
Laut Gartner entfallen über 50 % der KI-Nutzung in Unternehmen auf Schatten-KI. Ein KI-Verbot beseitigt nicht das Risiko, sondern die Transparenz. Und was man nicht sieht, kann man nicht schützen.
Der bessere Ansatz: Den sicheren Weg zum einfachen Weg machen. Wenn die Einführung von KI-gestützter Steuerung schnell und unkompliziert ist, werden die Menschen sie nutzen. Dauert die Genehmigung sechs Wochen, richten sie sich in der Mittagspause ein privates Konto ein.
Ein Verbot von KI im Jahr 2026 ist wie ein Verbot der Cloud im Jahr 2016. Man verhindert damit nicht das Risiko – man sorgt nur dafür, dass man es nicht kommen sieht.
Da KI-Systeme zunehmend selbstständig agieren, verschwimmt die Grenze zwischen Automatisierung und Autorität. Wie sollten Organisationen Governance, Genehmigungen und Aufsicht gestalten, wenn KI-Systeme operative Maßnahmen ergreifen können?
Denken Sie an Delegation, nicht an Automatisierung. Wenn Sie Aufgaben an eine Person delegieren, definieren Sie den Aufgabenbereich, stellen Sie sicher, dass die Person verantwortlich ist, und überprüfen Sie deren Arbeit. Dasselbe gilt für Agenten.
Das bedeutet gestaffelte Autonomie. Wiederholbare Aufgaben mit geringem Risiko – wie Passwortzurücksetzungen oder Ticketweiterleitung – werden autonom mit Protokollierung ausgeführt. Aktionen mit mittlerem Risiko – wie Änderungen an der Sicherheitskonfiguration oder erweiterte Zugriffsrechte – erfordern eine menschliche Genehmigung oder eine Echtzeitbenachrichtigung. Aktionen mit hohem Risiko – wie sensible Daten, privilegierte Zugriffe oder irreversible Änderungen – erfordern eine explizite Autorisierung, bevor der Agent aktiv wird.
Jeder Agent benötigt zudem einen menschlichen Verantwortlichen, der für sein Handeln zur Rechenschaft gezogen wird. Ohne diese Kette agieren die Agenten in einem Kontrollvakuum, in dem niemand für die Folgen aufkommt.
Unser Bericht ergab, dass nur 19 % der Unternehmen eine kontinuierliche, richtlinienbasierte Durchsetzung für ihre Mitarbeiter gewährleisten. Das bedeutet, dass 81 % auf statische Berechtigungen und bloßes Hoffen setzen. Das ist keine gute Unternehmensführung.
Mit Blick auf die Zukunft: Welche Schritte sollten Sicherheitsverantwortliche in den nächsten 12 bis 24 Monaten unternehmen, um ihre Identitäts- und Zugriffsmanagementsysteme auf eine Welt vorzubereiten, in der KI-Agenten als vollwertige digitale Identitäten im Unternehmen fungieren?
Fünf Prioritäten.
Zunächst einmal muss man Transparenz schaffen. Die meisten Organisationen wissen nicht, wie viele nicht-menschliche Identitäten sie haben. Man kann nicht steuern, was man nicht sieht.
Zweitens: Behandeln Sie jeden KI-Agenten wie einen Benutzer. Eigene Identität, eingeschränkte Berechtigungen, regelmäßige Überprüfung der Anmeldeinformationen und Zugriffsrechte sind unerlässlich. Würden Sie einem menschlichen Administrator nicht uneingeschränkte Zugriffsrechte gewähren, sollten Sie diese auch keinem Agenten geben.
Drittens: Von periodischer zu kontinuierlicher Steuerung übergehen. Vierteljährliche Überprüfungen können mit Akteuren, die ihr Verhalten innerhalb von Sekunden ändern, nicht mehr mithalten.
Viertens: Erstellen Sie jetzt Ihr Richtlinienwerk – bevor Sie Hunderte von Mitarbeitern haben. Definieren Sie die Grenzen der Autonomie, die Genehmigungsanforderungen und die Zuständigkeiten, solange es noch überschaubar ist.
Fünftens, die Governance muss über menschliche und nicht-menschliche Identitäten hinweg vereinheitlicht werden. Getrennte Systeme schaffen Lücken.
Die Gewinner werden nicht die Organisationen sein, die am meisten KI eingesetzt haben. Es werden diejenigen sein, die ein Identitätsmanagementsystem entwickelt haben, das in Maschinengeschwindigkeit arbeiten kann.
Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen ConductorOne.












