Vordenker
Brückenbildung bei der AI-Vertrauenslücke
Die Einführung von KI erreicht einen kritischen Wendepunkt. Unternehmen nehmen KI begeistert an, getrieben von ihrem Versprechen, die operativen Effizienzen um ein Vielfaches zu verbessern.
Eine kürzliche Slack-Umfrage ergab, dass die Einführung von KI weiter beschleunigt wird, wobei die Nutzung von KI in der Arbeitswelt in letzter Zeit um 24 % zugenommen hat und 96 % der befragten Führungskräfte der Meinung sind, dass es “dringend notwendig ist, KI in allen Geschäftsoperationen zu integrieren.”
Es gibt jedoch eine weitende Kluft zwischen der Nützlichkeit von KI und der wachsenden Angst vor ihren möglichen negativen Auswirkungen. Nur 7 % der Büroangestellten glauben, dass Ausgaben von KI vertrauenswürdig genug sind, um ihnen bei arbeitsbezogenen Aufgaben zu helfen.
Diese Kluft ist in dem starken Kontrast zwischen der Begeisterung der Führungskräfte für die KI-Integration und der Skepsis der Mitarbeiter in Bezug auf Faktoren wie:
- Voreingenommenheit und Fairness: KI-Systeme können bestehende Voreingenommenheiten aufrechterhalten oder sogar verschärfen, was zu ungerechten Ergebnissen führt.
- Privatsphäre und Sicherheit: Mitarbeiter machen sich Sorgen über die Erhebung, Speicherung und Nutzung ihrer personenbezogenen Daten durch KI-Systeme.
- Undurchsichtige Entscheidungsfindung: KI-Systeme funktionieren oft wie “Black Boxes”, wobei Entscheidungen getroffen werden, die für Menschen schwer zu verstehen oder zu erklären sind.
- Automatisierungsangst: Es gibt eine weit verbreitete Angst, dass KI menschliche Arbeitsplätze ersetzen und zu Arbeitslosigkeit und wirtschaftlicher Instabilität führen wird.
Die Rolle der Gesetzgebung bei der Schaffung von Vertrauen
Um diese vielschichtigen Vertrauensprobleme anzugehen, werden gesetzliche Maßnahmen zunehmend als notwendiger Schritt angesehen. Die Gesetzgebung kann eine wichtige Rolle bei der Regulierung der KI-Entwicklung und -Einrichtung spielen und so das Vertrauen stärken. Wichtige gesetzliche Ansätze umfassen:
- Datenschutz- und Privatsphäregesetze: Die Umsetzung strenger Datenschutzgesetze stellt sicher, dass KI-Systeme personenbezogene Daten verantwortungsvoll handhaben. Vorschriften wie die Datenschutz-Grundverordnung (DSGVO) in der Europäischen Union setzen einen Präzedenzfall, indem sie Transparenz, Datensparsamkeit und Benutzerzustimmung vorschreiben. Insbesondere Artikel 22 der DSGVO schützt die betroffenen Personen vor den möglichen negativen Auswirkungen der automatisierten Entscheidungsfindung. Jüngste Entscheidungen des Gerichtshofs der Europäischen Union (EuGH) bestätigen das Recht einer Person, nicht der automatisierten Entscheidungsfindung unterworfen zu werden. In dem Fall von Schufa Holding AG, in dem ein deutscher Bewohner aufgrund eines automatisierten Kreditentscheidungssystems abgelehnt wurde, entschied das Gericht, dass Artikel 22 Maßnahmen erfordert, um die Privatsphärerechte im Zusammenhang mit der Nutzung von KI-Technologien zu schützen.
- KI-Regulierungen: Die Europäische Union hat den EU-KI-Akt (EU AIA) ratifiziert, der darauf abzielt, die Nutzung von KI-Systemen basierend auf ihren Risikostufen zu regulieren. Der Akt umfasst verbindliche Anforderungen für KI-Systeme mit hohem Risiko, einschließlich Bereiche wie Datenqualität, Dokumentation, Transparenz und menschliche Aufsicht. Einer der Hauptvorteile von KI-Regulierungen ist die Förderung von Transparenz und Erklärbarkeit von KI-Systemen. Darüber hinaus etabliert die EU AIA klare Rechenschaftspflichten, die sicherstellen, dass Entwickler, Betreiber und sogar Benutzer von KI-Systemen für ihre Handlungen und die Ergebnisse der KI-Einrichtung verantwortlich sind. Dazu gehören Mechanismen für Abhilfe, wenn ein KI-System Schaden verursacht. Wenn Einzelpersonen und Organisationen für ihre Handlungen verantwortlich gemacht werden, wird Vertrauen aufgebaut, dass KI-Systeme verantwortungsvoll gehandhabt werden.
Normeninitiativen zur Förderung einer Kultur des vertrauenswürdigen KI
Unternehmen müssen nicht auf die Umsetzung neuer Gesetze warten, um zu bestimmen, ob ihre Prozesse innerhalb ethischer und vertrauenswürdiger Richtlinien liegen. KI-Regulierungen arbeiten in Verbindung mit aufkommenden KI-Normeninitiativen, die Organisationen in die Lage versetzen, verantwortungsvolle KI-Governance und Best Practices während des gesamten Lebenszyklus von KI-Systemen umzusetzen, einschließlich Design, Implementierung, Einrichtung und letztendlich Außerbetriebnahme.
Das National Institute of Standards and Technology (NIST) in den Vereinigten Staaten hat ein KI-Risikomanagement-Framework entwickelt, um Organisationen bei der Bewältigung von KI-bezogenen Risiken zu unterstützen. Das Framework ist in vier Kernfunktionen strukturiert:
- Verständnis des KI-Systems und des Kontexts, in dem es operiert. Dazu gehört die Definition des Zwecks, der Stakeholder und der möglichen Auswirkungen des KI-Systems.
- Quantifizierung der Risiken, die mit dem KI-System verbunden sind, einschließlich technischer und nicht-technischer Aspekte. Dazu gehört die Bewertung der Systemleistung, Zuverlässigkeit und möglichen Voreingenommenheiten.
- Umsetzung von Strategien zur Minderung der identifizierten Risiken. Dazu gehört die Entwicklung von Richtlinien, Verfahren und Kontrollen, um sicherzustellen, dass das KI-System innerhalb akzeptabler Risikostufen operiert.
- Einrichtung von Governance-Strukturen und Rechenschaftspflichten, um das KI-System und seine Risikomanagement-Prozesse zu überwachen. Dazu gehört die regelmäßige Überprüfung und Aktualisierung der Risikomanagement-Strategie.
Als Reaktion auf die Fortschritte in der generativen KI-Technologie veröffentlichte NIST auch das Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, das Leitlinien für die Minderung spezifischer Risiken im Zusammenhang mit Foundational Models bietet. Solche Maßnahmen umfassen den Schutz vor schädlicher Nutzung (z. B. Fehlinformationen, schädliche Inhalte, Hassrede) und ethische Anwendungen von KI, die sich auf menschliche Werte wie Fairness, Privatsphäre, Informationssicherheit, geistiges Eigentum und Nachhaltigkeit konzentrieren.
Darüber hinaus haben die Internationale Organisation für Normung (ISO) und die Internationale Elektrotechnische Kommission (IEC) gemeinsam ISO/IEC 23894 entwickelt, einen umfassenden Standard für KI-Risikomanagement. Dieser Standard bietet einen systematischen Ansatz zur Identifizierung und Bewältigung von Risiken während des gesamten KI-Lebenszyklus, einschließlich Risikoidentifizierung, Bewertung der Risikointensität, Behandlung zur Minderung oder Vermeidung und kontinuierlicher Überwachung und Überprüfung.
Die Zukunft von KI und öffentlichem Vertrauen
Blickt man in die Zukunft, wird die Zukunft von KI und öffentlichem Vertrauen wahrscheinlich von mehreren Schlüsselfaktoren abhängen, die für alle Organisationen von entscheidender Bedeutung sind:
- Durchführung einer umfassenden Risikobewertung, um mögliche Compliance-Probleme zu identifizieren. Bewerten Sie die ethischen Auswirkungen und möglichen Voreingenommenheiten in Ihren KI-Systemen.
- Einrichtung eines cross-funktionellen Teams, das Rechts-, Compliance-, IT- und Data-Science-Experten umfasst. Dieses Team sollte für die Überwachung von Regulierungsänderungen und die Sicherstellung verantwortlich sein, dass Ihre KI-Systeme neuen Regulierungen entsprechen.
- Umsetzung einer Governance-Struktur, die Richtlinien, Verfahren und Rollen für die Verwaltung von KI-Initiativen umfasst. Stellen Sie sicher, dass KI-Operationen und Entscheidungsprozesse transparent sind.
- Durchführung regelmäßiger interner Audits, um die Einhaltung von KI-Regulierungen sicherzustellen. Verwenden Sie Überwachungstools, um die Leistung von KI-Systemen und die Einhaltung von Regulierungsstandards zu überwachen.
- Schulung der Mitarbeiter über KI-Ethik, Regulierungsanforderungen und Best Practices. Bieten Sie regelmäßige Schulungssitzungen an, um das Personal über Änderungen in KI-Regulierungen und Compliance-Strategien zu informieren.
- Aufrechterhaltung detaillierter Aufzeichnungen über KI-Entwicklungsprozesse, Datenverwendung und Entscheidungskriterien. Stellen Sie sicher, dass Sie Berichte generieren können, die bei Bedarf an Regulierungsbehörden eingereicht werden können.
- Aufbau von Beziehungen zu Regulierungsbehörden und Teilnahme an öffentlichen Anhörungen. Bieten Sie Feedback zu vorgeschlagenen Regulierungen an und suchen Sie bei Bedarf nach Klärungen.
Kontextualisierung von KI zur Erreichung von vertrauenswürdiger KI
Letztendlich hängt vertrauenswürdige KI von der Integrität der Daten ab. Die Abhängigkeit von generativer KI von großen Datenmengen entspricht nicht der Genauigkeit und Zuverlässigkeit der Ausgaben; wenn überhaupt, ist es kontraintuitiv zu beiden Standards. Retrieval Augmented Generation (RAG) ist eine innovative Technik, die “statische LLMs mit kontextspezifischen Daten kombiniert. Und es kann als hochinformierter Assistent betrachtet werden. Einer, der den Kontext der Abfrage mit spezifischen Daten aus einer umfassenden Wissensbasis abgleicht”. RAG ermöglicht es Organisationen, kontextspezifische Anwendungen zu liefern, die den Erwartungen an Privatsphäre, Sicherheit, Genauigkeit und Zuverlässigkeit entsprechen. RAG verbessert die Genauigkeit der generierten Antworten, indem relevante Informationen aus einer Wissensbasis oder Dokumentenrepository abgerufen werden. Dies ermöglicht es dem Modell, seine Generierung auf genaue und aktuelle Informationen zu basieren.
RAG ermöglicht es Organisationen, speziell entwickelte KI-Anwendungen zu erstellen, die sehr genau, kontextbewusst und anpassungsfähig sind, um die Entscheidungsfindung zu verbessern, die Kundenerfahrung zu verbessern, den Betrieb zu rationalisieren und erhebliche Wettbewerbsvorteile zu erzielen.
Die Überbrückung der KI-Vertrauenslücke beinhaltet die Gewährleistung von Transparenz, Rechenschaftspflicht und ethischer Nutzung von KI. Es gibt zwar keine einzige Antwort auf die Wahrung dieser Standards, aber Unternehmen haben Strategien und Werkzeuge zur Verfügung. Die Umsetzung robuster Datenschutzmaßnahmen und die Einhaltung von Regulierungsstandards bauen Benutzervertrauen auf. Regelmäßige Audits von KI-Systemen auf Voreingenommenheit und Ungenauigkeiten stellen Fairness sicher. Die Ergänzung von Large Language Models (LLMs) mit speziell entwickelter KI schafft Vertrauen, indem sie proprietäre Wissensbasen und Datenquellen integriert. Die Einbeziehung von Stakeholdern in die Fähigkeiten und Grenzen von KI fördert auch Vertrauen und Akzeptanz.
Vertrauenswürdige KI ist nicht leicht zu erreichen, aber sie ist ein wichtiges Versprechen für unsere Zukunft.












