Vernetzen Sie sich mit uns

Vordenker

Warum Unternehmen einen wertebasierten Ansatz für die KI-Governance verfolgen sollten

mm

Im September 2025 trafen sich erstmals alle Mitgliedstaaten der Vereinten Nationen, um über internationale KI-Governance zu beraten; viele waren im Februar desselben Jahres erneut beim AI Impact Summit in Delhi vertreten. Die Veranstaltung führte zur Gründung zweier neuer Gremien mit Schwerpunkt auf KI-Governance; sie war jedoch bestenfalls ein symbolischer Erfolg.

Die neuen Mechanismen der UN wurden entwickelt, um einen Konsens zu erzielen: Sie meiden umstrittene Bereiche wie die militärische Nutzung von KI und weisen keine klaren Finanzierungsquellen oder Durchsetzungsbefugnisse auf. Dies dürfte erfahrene Beobachter nicht überraschen. Die heutige UN ist weder in der Lage, schnell zu handeln, noch die universelle Einhaltung ihrer Beschlüsse zu gewährleisten, was sie zu einem schwierigen Forum für echte Veränderungen macht.

Dies entspricht einem bekannten Muster. Trotz jahrelanger, vereinzelter Versuche, einen Konsens über KI-Regulierungen zu erzielen, gab es keine bedeutenden internationalen Abkommen. Dadurch entstand ein Vakuum, in dem einzelne Länder und Staatenbündnisse gezwungen waren, ihre eigenen Regeln zu entwickeln. Eine effektive KI-Regulierung ist jedoch entscheidend, wenn wir eine breite Akzeptanz, öffentliches Vertrauen und einen nachhaltigen sozialen und wirtschaftlichen Nutzen der KI erreichen wollen.

Ausbessern und Reparieren

Für global agierende Unternehmen, die KI-Systeme entwickeln und betreiben, stellt das Fehlen gemeinsamer, vereinbarter Governance-Mechanismen ein Problem dar. Sie möchten KI-Systeme weltweit einsetzen, doch die jeweiligen Regelungen sind in den verschiedenen Ländern unterschiedlich. Daher sind sie gezwungen, ein generisches Governance-Framework für ihr System zu entwickeln und dieses anschließend in jedem Land, in dem sie tätig sind, von Grund auf neu zu implementieren, um die Einhaltung der lokalen Gesetze und Vorschriften zu gewährleisten. Dieser Ansatz verursacht einen enormen Mehraufwand, verteuert KI-Initiativen, erhöht deren Verzögerungsanfälligkeit und schwächt die Fähigkeit global agierender Unternehmen, Skaleneffekte zu erzielen und effektive Tools weltweit mit Nutzern zu teilen.

Es gibt jedoch eine Alternative. Für Unternehmen, die ihren Ansatz optimieren möchten, könnte die beste Option darin bestehen, ein KI-Governance-Framework zu entwickeln, das gemeinsame ethische Prinzipien in den verschiedenen Regionen berücksichtigt und so sicherstellt, dass überall hohe Standards zum Schutz der individuellen Freiheit, der Privatsphäre und der Sicherheit eingehalten werden. Diese Methode bietet KI-Unternehmen eine wirksame Möglichkeit, das öffentliche Vertrauen in ihre Technologie zu stärken, ihren Kundenstamm auszubauen und das gesellschaftliche Potenzial der KI auszuschöpfen.

Sechs Schlüsselwerte für die KI-Governance

Für alle Organisationen, die an einem wertebasierten Ansatz für die KI-Governance interessiert sind, empfehle ich die Verwendung der sechs Schlüsselwerte, denen wir folgen: Verantwortlichkeit, Erklärbarkeit, Transparenz, Fairness, Sicherheit und Anfechtbarkeit.

Wir haben diese Werte gewählt, weil sie alle wichtigen Bereiche des Lebenszyklus von KI-Systemen abdecken und weil sie bereits in verschiedenen internationalen und nationalen Normen im Zusammenhang mit KI kodifiziert wurden, wie beispielsweise der Norm der Internationalen Organisation für Normung (ISO). ISO / IEC 42001 und der Leitfaden für künstliche Intelligenz für die britische Regierung.

Verantwortlichkeit beginnt an der Spitze: Sie bedeutet, in jeder Phase des KI-Lebenszyklus zu wissen, wer wofür zuständig ist. Ohne klare Zuständigkeiten können wichtige Kontrollmechanismen vernachlässigt werden, da niemand die letztendliche Verantwortung trägt. Organisationen sollten daher für KI-Systeme und wichtige Phasen namentlich benannte Verantwortliche auf Führungsebene – wie beispielsweise ihren Chief AI Officer – einsetzen und ein risikobasiertes Governance-Modell anwenden. Dabei sollten Tools von Drittanbietern genauso sorgfältig geprüft werden wie intern entwickelte Systeme. Dies setzt voraus, dass die Bedingungen, Einschränkungen und Haftungsrisiken der Anbieter genauso gut verstanden werden wie die eigenen Systeme.

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) bringt dies gut zum Ausdruck in seine Leitlinien zur Förderung der Verantwortlichkeit im Bereich KI, das empfiehlt, dass Organisationen „Mechanismen schaffen, um den KI-Risikomanagementprozess in die breitere Unternehmensführung einzubetten und so eine Kultur des Risikomanagements sowohl innerhalb der Organisationen als auch entlang der gesamten KI-Wertschöpfungskette zu fördern“.

Als nächstes kommt die Erklärbarkeit. Organisationen sollten in der Lage sein, dies nachzuweisen. wie Wenn ein KI-System eine Entscheidung trifft, sind Mechanismen zur Dokumentation und Nachvollziehbarkeit der Entscheidungsfindung sowie klare Aufzeichnungen über Systemdesign, Trainingsdaten und Entscheidungsprozesse erforderlich. Dadurch können Teams die Informationsherkunft von der Systementwicklung bis zum Einsatz nachvollziehen.

Fairness bedeutet, sicherzustellen, dass KI-Systeme gerechte Ergebnisse liefern und bestehende Vorurteile weder reproduzieren noch verstärken. Ohne gezielte Kontrollen können Systeme durch verzerrte Ergebnisse Schaden anrichten – ein besonderes Problem in sensiblen Bereichen wie Personalbeschaffung, Gesundheitswesen und Strafjustiz. Um dem entgegenzuwirken, sollten Organisationen Maßnahmen zur Erkennung von Verzerrungen implementieren, die Ergebnisse regelmäßig in allen relevanten Gruppen überprüfen und Governance-Rahmenwerke entwickeln, die lokale Antidiskriminierungsbestimmungen berücksichtigen. In der Praxis bedeutet dies, Systeme so zu gestalten, dass sie den höchsten rechtlichen Standards entsprechen, denen sie voraussichtlich unterliegen werden, einschließlich der Verpflichtungen aus Gesetzen wie dem britischen Gleichstellungsgesetz von 2010 und der EU-Grundrechtecharta.

Transparenz bedeutet, sowohl Nutzern als auch Regulierungsbehörden Klarheit zu verschaffen. Jeder sollte verstehen, wann KI eingesetzt wird, welche Rolle sie bei Entscheidungen spielt und welche Daten ihr zugrunde liegen. Ein praktischer erster Schritt ist die Standardisierung der Dokumentation von KI-Systemen, unterstützt durch interne Tools wie Modellkarten: Kurze Dokumente, die mit Machine-Learning-Modellen bereitgestellt werden und den Anwendungskontext, die Leistungsbewertungsverfahren und weitere relevante Informationen erläutern. Ohne Transparenz können Nutzer unfaire Ergebnisse nicht anfechten, Regulierungsbehörden nicht effektiv eingreifen und schädliche Auswirkungen möglicherweise vertuscht werden.

Sicherheit umfasst den Schutz von KI-Systemen vor unberechtigtem Zugriff, Manipulation und unbeabsichtigtem Verhalten. Bei Sicherheitslücken können KI-Systeme Organisationen, Nutzer und deren Daten gefährden und finanzielle sowie Reputationsschäden verursachen. Organisationen sollten daher Leistungs- und Genauigkeitsschwellenwerte definieren, Systeme unter realistischen Bedingungen Stresstests unterziehen und Red-Team-Tests durchführen, um Schwachstellen zu identifizieren.

Schließlich gewährleistet die Anfechtbarkeit, dass Nutzer KI-gestützte Entscheidungen klar und unkompliziert anfechten oder Einspruch erheben können. Ohne sie haben betroffene Nutzer keine Möglichkeit, sich zu wehren, und Probleme werden möglicherweise nie aufgedeckt oder gelöst. Organisationen sollten daher Meldekanäle direkt am Einsatzort bereitstellen, Verantwortliche in leitenden Positionen mit der Bearbeitung von Beschwerden beauftragen und sicherstellen, dass Systeme bei Bedarf angehalten, überprüft oder aktualisiert werden können.

Welche Vorteile bietet ein wertebasierter Rahmen?

Es gibt zwei gewichtige Gründe für diesen wertebasierten Ansatz in der KI-Governance. Erstens tragen diejenigen, die KI-Systeme entwickeln und einsetzen, eine ethische Verantwortung gegenüber den betroffenen Menschen und Organisationen; und zweitens ist dies ein effektiverer Weg, die versprochenen Vorteile der KI in der Praxis zu realisieren.

Nutzer von KI-Systemen, sowohl Unternehmen als auch Privatpersonen, vertrauen implizit darauf, dass deren Entwickler personenbezogene Daten nicht missbrauchen oder sie unnötigen Risiken aussetzen. Wenn Organisationen dieses Vertrauen missbrauchen, wird es für sie sehr schwierig, diese Nutzer zu halten. Letztendlich gilt: Solange die Menschen KI-Systemen nicht vertrauen und deren klaren Nutzen nicht erkennen, werden sie deren Einführung nicht akzeptieren. Dies wird zu weiterer sozialer und wirtschaftlicher Spaltung führen, und wir werden viele der Chancen verpassen, die diese Technologie bietet.

Unternehmen, die hingegen einen wertebasierten Ansatz flächendeckend anwenden – auch in Regionen mit weniger strengen Governance-Anforderungen –, können Kunden, Investoren und Aufsichtsbehörden zeigen, dass sie höhere Standards anlegen als die grundlegenden Compliance-Anforderungen. Dies schafft Vertrauen, fördert das Engagement und führt letztlich zum Geschäftserfolg.

Eine starke KI-Governance schafft Mehrwert und stellt keine Belastung durch Compliance dar. Sie ermöglicht es Unternehmen, neue Produkte schneller auf den Markt zu bringen, ihr Risiko zu reduzieren und ihre Lösungen mit Zuversicht auf verschiedene Märkte zu skalieren.

McKinseys „Der Stand der KI berichten festgestellt, dass „Die Aufsicht des CEO über die KI-Governance… ist ein Faktor, der am stärksten mit einer höheren, selbstberichteten Auswirkung des allgemeinen KI-Einsatzes auf das Unternehmensergebnis korreliert.“ Dies unterstreicht die kommerziellen Vorteile eines solchen Ansatzes. Insofern stellt die Integration starker ethischer Rahmenbedingungen in KI-Systeme ein wohlverstandenes Eigeninteresse dar.

Darüber hinaus ist es schlichtweg das Richtige. Unsere globale ethische KI-Richtlinie basiert auf demselben Prinzip: Fortschrittliche Technologien müssen den Menschen und der Gesellschaft dienen, nicht umgekehrt. Dies spiegelt die umfassendere Vision von Gesellschaft 5.0 wider: ein menschenzentriertes Innovationsmodell, das wirtschaftlichen Fortschritt mit der Lösung sozialer Herausforderungen verbinden will.

Sollen neue Technologien wie KI zu einer glücklicheren und harmonischeren Gesellschaft beitragen, müssen sie auf soliden ethischen Grundlagen beruhen. Das beginnt damit, dass man sich nicht nur auf die Standards konzentriert, die Organisationen erfüllen müssen, sondern auch auf die Standards, die sie anstreben.

Isabella Grandi ist Direktor für Daten- und KI-Strategie, Governance und Ethik bei NTT DATA UK&ISie arbeitet mit Organisationen zusammen, um verantwortungsvolle KI und KI-Governance zu gestalten und umzusetzen, die sie von ihrem aktuellen Zustand zu einem reiferen, datengesteuerten Betriebsmodell führen.

Ihre Arbeit konzentriert sich darauf, ethische Praktiken und ein robustes KI-Risikomanagement in die Art und Weise zu integrieren, wie Organisationen KI entwickeln und einsetzen, um sicherzustellen, dass ein verantwortungsvoller Umgang mit KI in Entscheidungsstrukturen und den täglichen Betrieb einfließt.