Vordenker
Überbrückung der Vertrauenslücke bei KI
Die Einführung von KI erreicht einen kritischen Wendepunkt. Unternehmen greifen KI begeistert an, angetrieben von der Aussicht, damit um ein Vielfaches höhere Betriebseffizienz zu erreichen.
Eine kürzlich Slack-Umfrage Die Studie ergab, dass sich die Einführung von KI weiterhin beschleunigt. Der Einsatz von KI am Arbeitsplatz hat in letzter Zeit um 24 % zugenommen und 96 % der befragten Führungskräfte sind der Ansicht, dass „es dringend erforderlich ist, KI in alle Geschäftsabläufe zu integrieren“.
Es gibt jedoch ein wachsende Kluft zwischen dem Nutzen der KI und der wachsenden Angst vor ihren möglichen negativen Auswirkungen. Nur 7 % der Büroangestellten glauben, dass Ergebnisse der KI sind vertrauenswürdig genug, um sie bei arbeitsbezogenen Aufgaben zu unterstützen.
Diese Kluft zeigt sich im starken Kontrast zwischen der Begeisterung der Führungskräfte für die Integration von KI und der Skepsis der Mitarbeiter in Bezug auf Faktoren wie:
- Voreingenommenheit und Fairness: KI-Systeme können bestehende Vorurteile aufrechterhalten oder sogar verschärfen was zu unfairen Ergebnissen führt.
- Datenschutz und Sicherheit: Mitarbeiter sind besorgt über die Verarbeitung Ihrer personenbezogenen Daten werden von KI-Systemen gesammelt, gespeichert und verwendet.
- Undurchsichtige Entscheidungsfindung: KI-Systeme agieren oft als „Black Boxes“ und treffen Entscheidungen, die für Menschen schwer zu verstehen oder erklären.
- Automatisierungsangst: Es besteht eine weitverbreitete Angst, dass KI wird menschliche Arbeitsplätze ersetzen, was zu Arbeitslosigkeit und wirtschaftlicher Instabilität führt.
Die Rolle der Gesetzgebung beim Aufbau von Vertrauen
Um diese vielschichtigen Vertrauensprobleme anzugehen, werden legislative Maßnahmen zunehmend als notwendiger Schritt angesehen. Gesetze können eine entscheidende Rolle bei der Regulierung der Entwicklung und des Einsatzes von KI spielen und so das Vertrauen stärken. Zu den wichtigsten legislativen Ansätzen gehören:
- Datenschutz- und Privatsphärengesetze: Die Umsetzung strenger Datenschutzgesetze stellt sicher, dass KI-Systeme verantwortungsvoll mit personenbezogenen Daten umgehen. Vorschriften wie die Datenschutz-Grundverordnung (DSGVO) in der Europäischen Union schaffen einen Präzedenzfall, indem sie Transparenz, Datenminimierung und Benutzereinwilligung vorschreiben. Insbesondere Artikel 22 der DSGVO schützt betroffene Personen vor den möglichen negativen Auswirkungen automatisierter Entscheidungsfindung. Jüngste Entscheidungen des Gerichtshofs der Europäischen Union (EuGH) bestätigen das Recht einer Person, keiner automatisierten Entscheidungsfindung unterworfen zu werden. Im Fall von Schufa Holding AG, In einem Fall, in dem einem in Deutschland ansässigen Bankbürger aufgrund eines automatisierten Kreditentscheidungssystems ein Kreditantrag verweigert wurde, entschied das Gericht, dass Artikel 22 Organisationen dazu verpflichtet, Maßnahmen zu ergreifen zum Schutz der Datenschutzrechte im Zusammenhang mit der Nutzung von KI-Technologien.
- KI-Vorschriften: Die Europäische Union hat den EU-KI-Act ratifiziert (EU-AIA), das darauf abzielt, den Einsatz von KI-Systemen auf der Grundlage ihres Risikoniveaus zu regulieren. Das Gesetz enthält verbindliche Anforderungen für KI-Systeme mit hohem Risiko, die Bereiche wie Datenqualität, Dokumentation, Transparenz und menschliche Aufsicht umfassen. Einer der Hauptvorteile von KI-Regulierungen ist die Förderung der Transparenz und Erklärbarkeit von KI-Systemen. Darüber hinaus legt das EU-AIA klare Rechenschaftsrahmen fest, die sicherstellen, dass Entwickler, Betreiber und sogar Benutzer von KI-Systemen für ihre Handlungen und die Ergebnisse des KI-Einsatzes verantwortlich sind. Dazu gehören Mechanismen für Rechtsbehelfe wenn ein KI-System Schaden anrichtet. Wenn Einzelpersonen und Organisationen zur Verantwortung gezogen werden, schafft dies Vertrauen, dass KI-Systeme verantwortungsvoll verwaltet werden.
Standardisierungsinitiativen zur Förderung einer Kultur vertrauenswürdiger KI
Unternehmen müssen nicht auf die Verabschiedung neuer Gesetze warten, um festzustellen, ob ihre Prozesse ethischen und vertrauenswürdigen Richtlinien entsprechen. KI-Vorschriften arbeiten Hand in Hand mit neuen KI-Standardinitiativen, die es Unternehmen ermöglichen, während des gesamten Lebenszyklus von KI-Systemen, einschließlich Design, Implementierung, Einsatz und schließlich Außerbetriebnahme, eine verantwortungsvolle KI-Governance und bewährte Verfahren umzusetzen.
Das National Institute of Standards and Technology (NIST) in den Vereinigten Staaten hat eine KI-Risikomanagement-Framework um Organisationen bei der Bewältigung KI-bezogener Risiken zu unterstützen. Das Framework ist um vier Kernfunktionen herum strukturiert:
- Verstehen des KI-Systems und des Kontexts, in dem es operiert. Dazu gehört die Definition des Zwecks, der Beteiligten und der möglichen Auswirkungen des KI-Systems.
- Quantifizierung der mit dem KI-System verbundenen Risiken, einschließlich technischer und nichttechnischer Aspekte. Dabei werden die Leistung, Zuverlässigkeit und potenziellen Verzerrungen des Systems bewertet.
- Implementierung von Strategien zur Minderung identifizierter Risiken. Dazu gehört die Entwicklung von Richtlinien, Verfahren und Kontrollen, um sicherzustellen, dass das KI-System innerhalb akzeptabler Risikoniveaus arbeitet.
- Aufbau von Governance-Strukturen und Rechenschaftsmechanismen zur Überwachung des KI-Systems und seiner Risikomanagementprozesse. Dies beinhaltet regelmäßige Überprüfungen und Aktualisierungen der Risikomanagementstrategie.
Als Reaktion auf Fortschritte bei generativen KI-Technologien NIST veröffentlichte auch das Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, Das Dokument enthält Leitlinien zur Minderung spezifischer Risiken, die mit Foundational Models verbunden sind. Zu diesen Maßnahmen gehören der Schutz vor schändlicher Nutzung (z. B. Desinformation, herabwürdigender Inhalt, Hassreden) und ethische Anwendungen von KI, die sich auf menschliche Werte wie Fairness, Privatsphäre, Informationssicherheit, geistiges Eigentum und Nachhaltigkeit konzentrieren.
Darüber hinaus haben die Internationale Organisation für Normung (ISO) und die Internationale Elektrotechnische Kommission (IEC) gemeinsam ISO/IEC 23894, ein umfassender Standard für das KI-Risikomanagement. Dieser Standard bietet einen systematischen Ansatz zur Identifizierung und Verwaltung von Risiken im gesamten KI-Lebenszyklus, einschließlich Risikoidentifizierung, Bewertung der Risikoschwere, Maßnahmen zur Minderung oder Vermeidung sowie kontinuierliche Überwachung und Überprüfung.
Die Zukunft der KI und des öffentlichen Vertrauens
Mit Blick auf die Zukunft werden die Zukunft der KI und des öffentlichen Vertrauens wahrscheinlich von mehreren Schlüsselfaktoren abhängen, die für alle Organisationen von entscheidender Bedeutung sind:
- Führen Sie eine umfassende Risikobewertung durch, um potenzielle Compliance-Probleme zu identifizieren. Bewerten Sie die ethischen Auswirkungen und potenziellen Verzerrungen in Ihren KI-Systemen.
- Aufbau eines funktionsübergreifenden Teams aus Fachleuten für Recht, Compliance, IT und Datenwissenschaft. Dieses Team sollte für die Überwachung regulatorischer Änderungen und die Sicherstellung verantwortlich sein, dass Ihre KI-Systeme den neuen Vorschriften entsprechen.
- Implementieren Sie eine Governance-Struktur, die Richtlinien, Verfahren und Rollen für die Verwaltung von KI-Initiativen umfasst. Sorgen Sie für Transparenz bei KI-Operationen und Entscheidungsprozessen.
- Führen Sie regelmäßige interne Audits durch, um die Einhaltung der KI-Vorschriften sicherzustellen. Verwenden Sie Überwachungstools, um die Leistung des KI-Systems und die Einhaltung gesetzlicher Standards zu verfolgen.
- Informieren Sie Ihre Mitarbeiter über KI-Ethik, regulatorische Anforderungen und Best Practices. Bieten Sie fortlaufende Schulungen an, um die Mitarbeiter über Änderungen der KI-Vorschriften und Compliance-Strategien auf dem Laufenden zu halten.
- Führen Sie detaillierte Aufzeichnungen über KI-Entwicklungsprozesse, Datennutzung und Entscheidungskriterien. Bereiten Sie sich auf die Erstellung von Berichten vor, die bei Bedarf an die Aufsichtsbehörden übermittelt werden können.
- Bauen Sie Beziehungen zu Regulierungsbehörden auf und nehmen Sie an öffentlichen Konsultationen teil. Geben Sie Feedback zu vorgeschlagenen Regelungen und bitten Sie bei Bedarf um Klarstellungen.
Kontextualisieren Sie KI, um vertrauenswürdige KI zu erreichen
Letztlich hängt vertrauenswürdige KI von der Integrität der Daten ab. Die Abhängigkeit der generativen KI von großen Datensätzen bedeutet nicht, dass die Ergebnisse genau und zuverlässig sind; wenn überhaupt, widerspricht sie beiden Standards. Retrieval Augmented Generation (RAG) ist eine innovative Technik, die „kombiniert statische LLMs mit kontextspezifischen Daten. Und man kann es sich als einen hochkompetenten Helfer vorstellen. Einer, der den Abfragekontext mit spezifischen Daten aus einer umfassenden Wissensdatenbank abgleicht..“ RAG ermöglicht es Organisationen, kontextspezifische Anwendungen bereitzustellen, die den Erwartungen an Datenschutz, Sicherheit, Genauigkeit und Zuverlässigkeit entsprechen. RAG verbessert die Genauigkeit der generierten Antworten, indem relevante Informationen aus einer Wissensdatenbank oder einem Dokumentenrepository abgerufen werden. Dadurch kann das Modell seine Generierung auf genauen und aktuellen Informationen basieren.
RAG ermöglicht es Unternehmen, zweckgebundene KI-Anwendungen zu entwickeln, die hochpräzise, kontextabhängig und anpassungsfähig sind, um die Entscheidungsfindung zu verbessern, das Kundenerlebnis zu steigern, Abläufe zu optimieren und erhebliche Wettbewerbsvorteile zu erzielen.
Um die Vertrauenslücke in Bezug auf KI zu schließen, müssen Transparenz, Verantwortlichkeit und ein ethischer Umgang mit KI sichergestellt werden. Es gibt zwar keine einheitliche Antwort auf die Einhaltung dieser Standards, aber Unternehmen verfügen über Strategien und Tools. Die Umsetzung robuster Datenschutzmaßnahmen und die Einhaltung gesetzlicher Standards stärken das Vertrauen der Benutzer. Regelmäßige Prüfungen von KI-Systemen auf Voreingenommenheit und Ungenauigkeiten sorgen für Fairness. Die Erweiterung von Large Language Models (LLMs) mit speziell entwickelter KI schafft Vertrauen durch die Einbeziehung proprietärer Wissensdatenbanken und Datenquellen. Die Einbindung der Stakeholder in die Fähigkeiten und Grenzen von KI fördert ebenfalls Vertrauen und Akzeptanz.
Eine vertrauenswürdige KI lässt sich nicht leicht erreichen, doch sie ist eine entscheidende Voraussetzung für unsere Zukunft.












