Connect with us

Warum Unternehmen einem wertebasierten Ansatz zur KI-Governance folgen sollten

Vordenker

Warum Unternehmen einem wertebasierten Ansatz zur KI-Governance folgen sollten

mm

Im September 2025 kamen die Mitgliedstaaten der Vereinten Nationen erstmals zusammen, um die internationale KI-Governance zu diskutieren; viele waren im Februar auf dem AI Impact Summit in Delhi erneut vertreten. Die Veranstaltung führte zur Gründung zweier neuer KI-Governance-Gremien; aber es war, bestenfalls, ein symbolischer Erfolg.

Die neuen Mechanismen der UN waren darauf ausgelegt, einen Konsens zu sichern: sie meiden umstrittene Bereiche wie militärische Anwendungen von KI und haben keine klaren Finanzierungsquellen und keine Durchsetzungsmechanismen. Dies sollte für erfahrene Beobachter keine Überraschung sein. Die heutige UN verfügt nicht über die Fähigkeit, schnell zu handeln oder die universelle Einhaltung ihrer Entscheidungen sicherzustellen, was es zu einem schwierigen Forum macht, um echte Veränderungen herbeizuführen.

Dies passt zu einem etablierten Muster. Trotz jahrelanger verstreuter Versuche, einen Konsens über KI-Regulierungen aufzubauen, gab es keine bedeutenden internationalen Vereinbarungen, was ein Vakuum geschaffen hat, in dem einzelne Länder und Blöcke gezwungen waren, ihre eigenen Regeln zu entwickeln. Doch die effektive Governance von KI ist entscheidend, wenn wir sehen möchten, dass sie weit verbreitet wird, vom Publikum vertraut wird und auf Weise eingesetzt wird, die dauerhafte soziale und wirtschaftliche Vorteile bringt

Notfalls reparieren und flicken

Für globale Unternehmen, die KI-Systeme entwickeln und betreiben, ist das Fehlen gemeinsamer, vereinbarter Governance-Mechanismen problematisch. Sie möchten KI-Systeme auf der ganzen Welt einsetzen, aber keine zwei Rechtsordnungen halten sich an dieselbe Satzungen. Stattdessen sind sie gezwungen, einen generischen Governance-Rahmen um ihr System herum zu erstellen und es dann in jedem Land, in dem sie tätig sind, von Grund auf neu aufzubauen, um sicherzustellen, dass es den lokalen Gesetzen und Vorschriften entspricht. Dieser Ansatz schafft eine enorme Menge an zusätzlicher Arbeit, macht KI-Initiativen teurer und anfälliger für Verzögerungen und schwächt die Fähigkeit globaler Unternehmen, Skaleneffekte zu realisieren und effektive Tools mit Benutzern überall zu teilen.

Es gibt jedoch eine Alternative. Für Unternehmen, die ihren Ansatz straffen möchten, kann die beste Option darin bestehen, einen KI-Governance-Rahmen aufzubauen, der gemeinsame ethische Prinzipien in diesen verschiedenen Regionen berücksichtigt, um sicherzustellen, dass sie überall in Bezug auf den Schutz der Freiheit, Privatsphäre und Sicherheit von Personen hohe Standards erfüllen. Diese Technik stellt eine leistungsstarke Möglichkeit für KI-Unternehmen dar, um das Vertrauen der Öffentlichkeit in ihre Technologie zu erhöhen, ihre Kundenbasis zu stärken und das Potenzial von KI für die Gesellschaft zu nutzen.

Sechs wichtige Werte für KI-Governance

Für jede Organisation, die einen wertebasierten Ansatz zur KI-Governance annehmen möchte, würde ich vorschlagen, die sechs wichtigsten Werte zu verwenden, die wir befolgen: Rechenschaftspflicht, Erklärbarkeit, Transparenz, Fairness, Sicherheit und Anfechtbarkeit.

Wir haben diese Werte ausgewählt, weil sie alle wichtigen Bereiche des KI-Systemlebenszyklus abdecken und weil sie bereits in verschiedenen internationalen und nationalen Standards im Zusammenhang mit KI kodifiziert wurden, wie z. B. der International Organization for Standardization’s ISO/IEC 42001 und der Artificial Intelligence Playbook for the UK Government.

Um bei den Grundlagen zu beginnen, bedeutet Rechenschaftspflicht, zu wissen, wer für was bei jedem Schritt des KI-Lebenszyklus verantwortlich ist. Ohne klare Verantwortung können wichtige Kontrollen weggelassen werden, weil keine Person oder kein Team die endgültige Verantwortung trägt. Organisationen sollten senior, benannte Eigentümer – wie ihren Chief AI Officer – KI-Systemen und wichtigen Schritten zuweisen und ein risikobasiertes Governance-Modell verwenden, das dieselbe Prüfung auf Dritt-Tools wie auf selbst entwickelte Tools anwendet. Dies bedeutet, dass man Lieferbedingungen, Einschränkungen und Haftungen genauso gut versteht wie man seine eigenen Systeme versteht.

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat dies gut in ihren Richtlinien zur Förderung der Rechenschaftspflicht in KI erfasst, die empfehlen, dass Organisationen “Mechanismen schaffen, um den KI-Risikomanagementprozess in die umfassende Unternehmensgovernance einzubetten, um eine Kultur des Risikomanagements innerhalb von Organisationen und entlang der gesamten KI-Wertschöpfungskette zu fördern”.

Als nächstes kommt die Erklärbarkeit. Organisationen sollten in der Lage sein, wie ein KI-System zu einer Entscheidung gelangt. Dazu müssen Mechanismen zur Dokumentation und Nachverfolgung von Entscheidungsprozessen sowie klare Aufzeichnungen über Systemdesign, Trainingsdaten und Entscheidungsprozesse vorhanden sein. Zusammen ermöglicht dies es Teams, die Herkunft von Informationen von der Entstehung eines Systems bis hin zu dessen Einsatz zu verstehen.

Fairness konzentriert sich darauf, sicherzustellen, dass KI-Systeme faire Ergebnisse liefern und keine bestehenden Vorurteile replizieren oder verstärken. Ohne bewusste Kontrollen können Systeme durch die Lieferung von schiefen Ergebnissen Schaden anrichten – ein besonderes Problem in hochgradig betroffenen Bereichen wie Rekrutierung, Gesundheitswesen und Strafjustiz. Um dies zu vermeiden, sollten Organisationen Maßnahmen zur Vorurteilsdetektion umsetzen, Ausgaben regelmäßig in relevanten Gruppen überprüfen und Governance-Rahmen entwerfen, die lokale Antidiskriminierungsanforderungen berücksichtigen können. In der Praxis bedeutet dies, Systeme zu entwickeln, die den höchsten Rechtsstandard erfüllen, dem sie wahrscheinlich begegnen werden, einschließlich der Verpflichtungen nach Gesetzen wie dem UK Equality Act 2010 und der EU-Charta der Grundrechte.

Transparenz geht darum, Klarheit für Benutzer und Aufsichtsbehörden zu schaffen. Menschen sollten verstehen, wenn KI verwendet wird, welche Rolle sie bei der Entscheidungsfindung spielt und welche Daten sie zugrunde legt. Ein praktischer Ausgangspunkt ist die Standardisierung von Dokumentationen über KI-Systeme, unterstützt durch interne Tools wie Modelkarten: kurze Dokumente, die mit maschinellen Lernalgorithmen bereitgestellt werden und den Kontext erläutern, in dem die Modelle verwendet werden sollen, Details der Leistungsbeurteilungsverfahren und andere relevante Informationen. Ohne Transparenz können Benutzer ungerechte Ergebnisse nicht anfechten, Aufsichtsbehörden können nicht effektiv eingreifen und schädliche Auswirkungen können unter den Teppich gekehrt werden.

Sicherheit beinhaltet den Schutz von KI-Systemen vor unbefugtem Zugriff, Manipulation oder ungewolltem Verhalten. Wenn die Sicherheit schwach ist, können KI-Systeme Organisationen, Benutzer und ihre Daten gefährden und sie finanziellen und reputationsbedrohenden Schäden aussetzen. Organisationen sollten Leistungs- und Genauigkeitsgrenzwerte definieren, Systeme unter realistischen Bedingungen testen und Red-Team-Tests einsetzen, um Schwachstellen zu identifizieren.

Schließlich stellt Anfechtbarkeit sicher, dass Menschen eine klare und zugängliche Möglichkeit haben, KI-getriebene Entscheidungen anzufechten oder zu beanstanden. Ohne sie haben betroffene Benutzer keine Abhilfe und Probleme werden möglicherweise nie an die Oberfläche gebracht oder gelöst. Organisationen sollten Berichtskanäle am Ort der Nutzung bereitstellen, senior Eigentümer zur Bearbeitung von Beschwerden zuweisen und sicherstellen, dass Systeme pausiert, überprüft oder bei Bedarf aktualisiert werden können.

Was sind die Vorteile eines wertebasierten Rahmens?

Es gibt zwei leistungsstarke Gründe für die Annahme eines wertebasierten Ansatzes zur KI-Governance. Erstens, weil diejenigen, die KI-Systeme entwickeln und einsetzen, eine ethische Verantwortung gegenüber den Menschen und Organisationen haben, die von ihnen betroffen sind; und zweitens, weil dies ein effektiverer Weg ist, um die versprochenen Vorteile von KI in der Praxis zu realisieren.

Benutzer von KI-Systemen, sowohl Unternehmen als auch Einzelpersonen, setzen implizites Vertrauen in ihre Schöpfer, dass sie personenbezogene Daten nicht missbrauchen oder sie unnötigen Risiken aussetzen. Wenn Organisationen dieses Vertrauen brechen, wird es sehr schwierig für sie, diese Benutzer zu behalten. Letztendlich werden Menschen, wenn sie KI-Systeme nicht vertrauen und die klaren Vorteile, die sie bieten, nicht sehen, nicht mit ihrer Einführung einverstanden sein. Dies wird zu mehr sozialer und wirtschaftlicher Spaltung führen, und wir werden viele der Chancen, die diese Technologie bietet, verpassen.

Andererseits können Unternehmen, die einen wertebasierten Rahmen überall anwenden – einschließlich in Regionen mit weniger strengen Governance-Anforderungen – ihren Kunden, Investoren und Aufsichtsbehörden demonstrieren, dass sie sich selbst einem höheren Standard als dem grundlegenden Compliance-Anforderungen unterwerfen. Dies schafft Vertrauen, Engagement und letztendlich Geschäftserfolg.

Eine starke KI-Governance ist ein Wertschöpfer, nicht eine Compliance-Last. Sie ermöglicht es Unternehmen, neue Produkte schneller auf den Markt zu bringen, ihr Risikoexposure zu reduzieren und ihre Lösungen mit Zuversicht über mehrere Märkte hinweg zu skalieren.

Der McKinsey-Bericht “Der Zustand von KIzeigt, dass “die Überwachung von KI-Governance durch den CEO… ein Element ist, das am meisten mit einem höheren Selbstbericht über die Auswirkungen auf die Unternehmensleistung durch den Einsatz von KI zusammenhängt,” was die kommerziellen Vorteile eines solchen Ansatzes unterstreicht. In diesem Zusammenhang stellt die Einbindung starker ethischer Rahmenbedingungen in KI-Systeme aufgeklärtes Eigeninteresse dar.

Darüber hinaus ist es einfach das Richtige zu tun. Wir haben unsere globale ethische KI-Richtlinie um den gleichen Grundsatz herum aufgebaut: dass fortschrittliche Technologien Menschen und der Gesellschaft dienen müssen, nicht umgekehrt. Dies spiegelt die umfassendere Vision von Society 5.0 wider: ein menschenzentriertes Innovationsmodell, das darauf abzielt, wirtschaftlichen Fortschritt mit der Lösung sozialer Herausforderungen zu verbinden.

Wenn aufkommende Technologien wie KI eine glücklichere, harmonischere Gesellschaft fördern sollen, müssen sie auf starken ethischen Grundlagen aufbauen. Dies beginnt mit einer Konzentration nicht nur auf die Standards, die Organisationen erfüllen müssen, sondern auch auf die Standards, die sie erreichen möchten.

Isabella Grandi ist Director of Data & AI Strategy, Governance and Ethics bei NTT DATA UK&I. Sie arbeitet mit Organisationen zusammen, um verantwortungsvolle KI und KI-Governance zu gestalten und zu liefern, die sie von ihrem aktuellen Zustand zu einem reiferen, datengetriebenen Betriebsmodell bewegen.

Ihre Arbeit konzentriert sich auf die Einbettung ethischer Praktiken und robuster KI-Risikomanagement in die Art und Weise, wie Organisationen KI entwerfen und einsetzen, um sicherzustellen, dass verantwortungsvolle Nutzung in Entscheidungsstrukturen und tägliche Operationen integriert ist.