Connect with us

Vordenker

KI-Agenten durch Design und nicht durch Zufall vertrauenswürdig machen

mm
A photorealistic widescreen image of a compliance team overseeing an AI

Agentic KI kommt nicht mit großem Aufsehen, sondern schleicht sich eher in den Alltag ein. Systeme, die früher untätig herumsaßen und auf menschliche Anweisungen warteten, nehmen jetzt die Initiative. Diese Evolution findet bereits innerhalb von Organisationen statt, aber die Diskussion über KI-Governance bleibt in einer früheren Ära stecken. Unsere Gesetze und organisatorischen Strukturen wurden nie mit autonomen, nicht-menschlichen Akteuren im Sinn gehabt. Für Unternehmen, die dem GDPR unterliegen, ist dies kein theoretisches Anliegen, sondern eine aktuelle operative Herausforderung – und sie schreitet schneller voran, als die meisten Compliance-Teams bequem bewältigen können.

Wenn KI-Tools anfangen, zurückzusprechen

Wenn es um Governance geht, konzentriert sich die Diskussion in der Regel auf Compliance, Risikomanagement und Schadensverhütung. Während diese sehr wichtig sind, wurden sie für eine Welt entwickelt, in der KI größtenteils statisch war: trainiert, getestet, veröffentlicht und auf vorhersehbaren Zyklen überwacht.

Mit der Integration von KI-Agenten in Entscheidungsprozesse wird die zentrale Herausforderung nun mehr zu Verhalten und Vertrauen. Führungskräfte müssen sich fragen: “Wie stellen wir sicher, dass Systeme, die handeln können, auch vertrauenswürdig sind?” Vertrauen ist eine Designentscheidung, die absichtlich getroffen werden muss, nicht durch Überzeugung konstruiert. Organisationen, die den GDPR-Richtlinien folgen, verstehen, dass Compliance kritisch ist und rechtliche Konsequenzen nach sich zieht.

Drei Arten, wie agentic KI die heutigen GDPR-Annahmen bricht

Als der GDPR entworfen wurde, war er nicht für autonome Agenten geschrieben. Allerdings sind drei der Kernprinzipien des GDPR – Zweckbindung, Datensparsamkeit, Transparenz und Rechenschaftspflicht – entscheidend. Agentic KI wirkt sich auf jede dieser Aspekte in neuen Weisen aus, und es gibt drei Schlüsselbereiche, die angegangen werden müssen.

Das erste Risiko ist, wie ein KI-Agent eine Aufgabe “durchdenkt”. Anstatt einen festen Prozess auszuführen, bricht er die Arbeit in viele kleine Schritte auf, ruft oft externe Tools auf, zieht aus Datenbanken, macht Vermutungen und behandelt personenbezogene Daten auf dem Weg. Viel davon geschieht außer Sicht. Es ist schwierig, genau zu bestimmen, welche Daten verwendet wurden, in welchem Schritt und aus welchem Grund – doch genau diese Art von Transparenz und Rechenschaftspflicht erwartet der GDPR.

Das zweite Risiko ist, wie Agenten Speicher verwenden. Sie können personenbezogene Daten im Kurzzeitgedächtnis halten, während sie eine Aufgabe ausführen, und im Langzeitgedächtnis über viele Sitzungen hinweg. Wenn dieser Speicher nicht sorgfältig getrennt wird, kann Informationen aus der Interaktion einer Person in die einer anderen Person überlaufen. Wenn Sie keine klaren Aufbewahrungsfristen durchsetzen, können personenbezogene Daten lange nach ihrem ursprünglichen Zweck im System verbleiben. Unter dem Recht auf Löschung des GDPR wird dies sehr schwierig zu verwalten, wenn die Daten innerhalb des Gedächtnisses des Agents und nicht in einer Datenbank versteckt sind, die Ihr Datenschutzteam leicht finden und abfragen kann.

Das dritte Risiko ist Prompt-Injection – im Wesentlichen, den Agenten zu täuschen. Wenn ein Agent Dokumente liest, im Internet browsen oder eingehende Nachrichten verarbeitet, kann schädlicher Inhalt in diesen Quellen sein Verhalten übernehmen, es dazu bringen, personenbezogene Daten zu leaken, oder es dazu bringen, Aktionen auszuführen, die die Organisation nie genehmigt hat. Dies ist ein bekanntes Angriffsmuster, das spezifisch für agentic Systeme ist. Es bedeutet, dass Sie einen Datenleck erleiden können, nicht weil Ihre Kernsysteme gehackt wurden, sondern weil Ihr KI-Agent feindlichen Inhalt während der Ausführung seiner Aufgaben traf – und unter dem GDPR sind Sie dennoch verantwortlich.

Aufbau echten Vertrauens, nicht nur einer freundlichen Oberfläche

Es ist wichtig zu verstehen, dass es einen Unterschied zwischen konstruiertem Vertrauen und verdientem Vertrauen gibt. Konstruiertes Vertrauen kann helfen, Benutzer von einem bestimmten Punkt zu überzeugen, typischerweise durch emotionale Spiegelung, anthropomorphe Signale oder überzeugende Design.

Allerdings geht es bei dauerhaftem Vertrauen um Systeme, die sich auf Weise verhalten, die Menschen verstehen, vorhersehen und bewerten können. Die Argumentation, Grenzen und Absichten des Agents sind legitim. Dies ist die Voraussetzung für einen GDPR-konformen Entwurf, bei dem Transparenz sinnvoll sein muss.

Was bedeutet der Trust-Stack wirklich?

Eine Strategie für Organisationen ist die Nutzung eines geschichteten Trust-Stacks. Das bedeutet, dass jede Ebene die Rechenschaftspflicht zwischen Menschen und Maschinen klar macht.

  • Klare Denkwege: Der Agent sollte in der Lage sein, zu erklären, wie und warum er ein Ergebnis produziert hat – nicht mit tiefen technischen Details, sondern auf eine Weise, die Sie verfolgen und überprüfen können. Dies entspricht den Transparenzregeln des GDPR und dem Recht auf Erklärung für automatisierte Entscheidungen gemäß Artikel 22.
  • Klare Grenzen der Macht: Es müssen feste Grenzen um das darin liegen, was der Agent tun, entscheiden oder empfehlen darf. Keine stille Erweiterung seiner Freiheit im Laufe der Zeit. Für den GDPR bedeutet dies, dass Menschen immer noch die Entscheidungen treffen; der Agent ist ein Werkzeug, nicht der Controller.
  • Offene Ziele: Die Ziele des Agents müssen offen angegeben werden. Menschen sollten wissen, ob es auf Genauigkeit, Sicherheit, Geschwindigkeit oder kommerziellen Gewinn optimiert ist – und dieses Ziel muss niedergeschrieben und verstanden werden.
  • Leichtes Herausforderen und Stopptaste: Menschen müssen in der Lage sein, die Entscheidungen des Agents in Frage zu stellen, zu korrigieren oder ohne Reibung abzuschalten. Eine einfache Möglichkeit, sich abzumelden, ist für Vertrauen unerlässlich – und gemäß Artikel 22 ist es auch eine rechtliche Anforderung.
  • Integrierte Governance: Protokollierung, Kontrollen, Speichersteuerung und Aufsicht müssen von Anfang an in das System integriert werden, nicht später hinzugefügt. Datenschutz durch Design ist nicht optional; es ist die zugrunde liegende Struktur, die alles andere funktionieren lässt.

Die Nutzung des Trust-Stacks macht Autonomie sicher skalierbar.

Wenn Governance auf reale Erfahrung trifft

Governance ist nicht nur eine Frage von Regeln und Prozessen. Es geht auch darum, wie Systeme für die Menschen, die sie verwenden, wirken. Menschen müssen das Gefühl haben, dass sie immer noch die Kontrolle haben. Sie müssen sehen, wenn KI handelt, verstehen, warum sie etwas tut, und wissen, wie sie eingreifen können, wenn sie aufhören sollte.

Systeme, die das Compliance-Kästchen ankreuzen, aber wie eine Blackbox wirken, verlieren schnell Vertrauen. Dafür sind sehr bewusste Designentscheidungen erforderlich: keine menschenähnlichen Signale, die Empathie oder moralisches Urteilsvermögen suggerieren, die das System nicht hat; klare Signale, wenn die KI unsicher oder eingeschränkt ist; und keine Anpassung der Erfahrung, um emotionale Abhängigkeit zu schaffen.

Führungskräfte sollten über die Frage hinausgehen, ob ihre KI verantwortungsvoll ist. Eine bessere Fragestellung ist: “Welches Verhalten wird dieses System normal machen? Wovon wird es Menschen stillschweigend abbringen? Wie wird es die Urteilsfähigkeit im Laufe der Zeit beeinflussen – und sind wir bereit, dafür zu antworten?”

Ivana Bartoletti ist Global Chief Privacy und AI Governance Officer bei Wipro, einem führenden AI-basierten Technologie-Dienstleistungs- und Beratungsunternehmen. Als international anerkannte Meinungsbildnerin im Bereich Datenschutz, AI-Governance und verantwortungsvolle Technologie dient Ivana als Expertin für den Europarat, wo sie eine wegweisende Studie mitverfasst hat, die die Auswirkungen künstlicher Intelligenz auf die Gleichstellung der Geschlechter untersucht.