Connect with us

Einführung neuer Transparenzstufen mit KI – Thought Leaders

Künstliche Intelligenz

Einführung neuer Transparenzstufen mit KI – Thought Leaders

mm

Von Balakrishna D R, Senior Vice President, Service Offering Head – Energy, Communications, Services, und AI und Automation Services, bei Infosys.

Am 9. Januar 2020 informierte die Weltgesundheitsorganisation die Öffentlichkeit über den Coronavirus-Ausbruch in China. Drei Tage zuvor hatte das US-Zentrum für Krankheitskontrolle und -prävention bereits die Nachricht verbreitet. Aber eine kanadische Gesundheitsüberwachungsplattform hatte sie beide geschlagen, indem sie ihre Kunden bereits am 31. Dezember 2019 über den Ausbruch informierte! Die Plattform, BlueDot, verwendet künstliche Intelligenz-getriebene Algorithmen, die ausländische Nachrichtenberichte, Tier- und Pflanzenkrankheitsnetzwerke und offizielle Bekanntmachungen durchsuchen, um ihren Kunden eine frühzeitige Warnung zu geben, um Gefahrenzonen wie Wuhan zu vermeiden.

In den letzten Jahren ist künstliche Intelligenz zu einer wichtigen Quelle der Transformation, Störung und Wettbewerbsvorteile in der heutigen sich schnell verändernden Wirtschaft geworden. Von der Epidemienverfolgung bis zur Verteidigung, Gesundheitsversorgung, autonomen Fahrzeugen und allem dazwischen gewinnt KI zunehmend an Verbreitung. PwC prognostiziert, dass KI bis 2030 bis zu 15,7 Billionen US-Dollar zur globalen Wirtschaft beitragen könnte, bei ihrem aktuellen Wachstumstempo.

Trotz all der Hoffnung, die KI bringt, wirft sie noch ungeklärte Fragen rund um Transparenz und Vertrauenswürdigkeit auf. Die Notwendigkeit, die Entscheidungsfähigkeit von KI-Systemen zu verstehen, vorherzusagen und zu vertrauen, ist insbesondere in Bereichen wichtig, die für Leben, Tod und persönliches Wohlbefinden von entscheidender Bedeutung sind.

 

Ins Unbekannte

Als automatisierte Entscheidungssysteme erstmals eingeführt wurden, um die Entscheidungsfindung zu unterstützen, basierten sie auf handgefertigten Regeln. Während dies es einfacher machte, ihr Verhalten zu interpretieren und zu modifizieren, waren sie nicht skalierbar. Machine-Learning-Modelle kamen auf, um diese Notwendigkeit zu erfüllen; sie benötigten keine menschliche Intervention und konnten aus Daten trainieren – je mehr, desto besser. Während Deep-Learning-Modelle in ihrer Modellierungskapazität und ihrem Anwendungsbereich unübertroffen sind, wirft die Tatsache, dass diese Modelle größtenteils Black-Box-Systeme sind, beunruhigende Fragen hinsichtlich ihrer Wahrhaftigkeit, Vertrauenswürdigkeit und Vorurteile im Kontext ihrer weiten Verwendung auf.

Es gibt derzeit keinen direkten Mechanismus, um die implizit von Deep-Learning-Modellen verwendete Argumentation zurückzuverfolgen. Bei Machine-Learning-Modellen mit Black-Box-Charakter ist die primäre Art der Erklärbarkeit die sogenannte post-hoc-Erklärbarkeit, was bedeutet, dass die Erklärungen aus der Natur und den Eigenschaften der von dem Modell generierten Ausgaben abgeleitet werden. Frühe Versuche, Regeln aus neuronalen Netzen (wie Deep Learning früher bekannt war) zu extrahieren, werden derzeit nicht mehr verfolgt, da die Netze zu groß und vielfältig für eine handhabbare Regelextraktion geworden sind. Es gibt daher einen dringenden Bedarf, Interpretierbarkeit und Transparenz in die AI-Modellierung einzuführen.

 

Aus dem Dunkel ins Licht

Diese Sorge hat zu einem Bedarf an Transparenz in Machine Learning geführt, was zum Wachstum von erklärbarer KI, oder XAI, geführt hat. Sie versucht, die großen Probleme anzugehen, die unsere Fähigkeit behindern, AI-Entscheidungen vollständig zu vertrauen — einschließlich Bias und Transparenz. Dieses neue Feld der KI bringt Rechenschaftspflicht, um sicherzustellen, dass KI der Gesellschaft mit besseren Ergebnissen für alle Beteiligten nützt.

XAI wird entscheidend sein, um mit den in AI-Systemen und -Algorithmen inhärenten Vorurteilen umzugehen, die von Menschen programmiert werden, deren Hintergrund und Erfahrungen unbeabsichtigt zur Entwicklung von AI-Systemen führen, die Vorurteile aufweisen. Unerwünschte Vorurteile wie Diskriminierung gegen eine bestimmte Nationalität oder Ethnie können sich einschleichen, weil das System einen Wert darauf legt, basierend auf realen Daten. Um dies zu veranschaulichen, kann es sein, dass typische Kreditausfälle aus einer bestimmten ethnischen Herkunft stammen, jedoch die Umsetzung einer restriktiven Richtlinie auf dieser Grundlage gegen faire Praktiken verstoßen würde. Falsche Daten sind ein weiterer Grund für Vorurteile. Zum Beispiel kann es sein, dass ein bestimmter Gesichtserkennungsscanner 5% der Zeit aufgrund der Hautfarbe oder der Beleuchtung des Gesichts ungenau ist, was zu Vorurteilen führen kann. Schließlich ist es unvermeidlich, dass Vorurteile auftreten, wenn Ihre Stichprobendaten nicht die gesamte Bevölkerung repräsentieren.

XAI zielt darauf ab, zu verstehen, wie die Black-Box-Entscheidungen von AI-Systemen zustande kommen. Sie untersucht und versucht, die Schritte und Modelle zu verstehen, die an der Entscheidungsfindung beteiligt sind. Sie beantwortet entscheidende Fragen wie: Warum hat das AI-System eine bestimmte Vorhersage oder Entscheidung getroffen? Warum hat das AI-System nicht etwas anderes getan? Wann hat das AI-System Erfolg oder Misserfolg? Wann gibt das AI-System genug Vertrauen in die Entscheidung, dass man ihm vertrauen kann, und wie kann das AI-System Fehler korrigieren?

 

Erklärbar, vorhersehbar und nachvollziehbar KI

Eine Möglichkeit, Erklärbarkeit in AI-Systemen zu erzielen, besteht darin, Machine-Learning-Algorithmen zu verwenden, die von Natur aus erklärbar sind. Zum Beispiel können einfache Formen des Machine Learning wie Entscheidungsbäume, Bayes-Klassifizierer und andere Algorithmen, die eine bestimmte Spurbarkeit und Transparenz in ihrer Entscheidungsfindung aufweisen, die notwendige Sichtbarkeit für kritische AI-Systeme bieten, ohne dabei zu viel Leistung oder Genauigkeit zu opfern.

Angesichts der Notwendigkeit, Erklärbarkeit für Deep Learning und andere komplexere algorithmische Ansätze zu bieten, verfolgt die US-Verteidigungsagentur für fortschrittliche Forschungsprojekte (DARPA) Bemühungen, erklärbare KI-Lösungen durch eine Reihe von Forschungsinitiativen zu produzieren. DARPA beschreibt die Erklärbarkeit von KI in drei Teilen, die Folgendes umfassen: Genauigkeit der Vorhersage, was bedeutet, dass Modelle erklären, wie Schlussfolgerungen erreicht werden, um zukünftige Entscheidungen zu verbessern; Verständnis und Vertrauen von menschlichen Benutzern und Bediensteten sowie Überprüfbarkeit der Aktionen, die von den KI-Systemen durchgeführt werden.

Die Nachvollziehbarkeit wird es den Menschen ermöglichen, in AI-Entscheidungsschleifen einzusteigen und die Fähigkeit haben, ihre Aufgaben zu stoppen oder zu kontrollieren, wenn es notwendig ist. Ein KI-System wird nicht nur erwartet, eine bestimmte Aufgabe auszuführen oder Entscheidungen zu treffen, sondern auch einen transparenten Bericht darüber zu liefern, warum es bestimmte Entscheidungen getroffen hat, einschließlich der zugrunde liegenden Begründung.

Die Standardisierung von Algorithmen oder sogar XAI-Ansätzen ist derzeit nicht möglich, aber es könnte möglich sein, Transparenzstufen oder Erklärbarkeitsstufen zu standardisieren. Standardisierungsorganisationen versuchen, gemeinsame, standardisierte Verständnisse dieser Transparenzstufen zu entwickeln, um die Kommunikation zwischen Endbenutzern und Technologieanbietern zu erleichtern.

Wenn Regierungen, Institutionen, Unternehmen und die allgemeine Öffentlichkeit von AI-basierten Systemen abhängig werden, wird es grundlegend sein, ihr Vertrauen durch eine klarere Transparenz des Entscheidungsprozesses zu gewinnen. Die Lancierung der ersten globalen Konferenz, die ausschließlich der XAI gewidmet ist, der International Joint Conference on Artificial Intelligence: Workshop on Explainable Artificial Intelligence, ist ein weiterer Beweis dafür, dass das Zeitalter der XAI angekommen ist.

Balakrishna, allgemein bekannt als Bali D.R., ist der Leiter von KI und Automation bei Infosys, wo er sowohl interne Automation für Infosys als auch unabhängige Automatisierungsdienste unter Nutzung von Produkten für Kunden bereitstellt. Bali ist seit mehr als 25 Jahren bei Infosys und hat Vertriebs-, Programmmanagement- und Lieferrollen in verschiedenen geografischen Regionen und Branchen gespielt.