Connect with us

KI 101

Was ist Explainable AI?

mm

Da künstliche Intelligenz (AI) komplexer wird und in der Gesellschaft weit verbreitet ist, ist einer der kritischsten Satz von Prozessen und Methoden die erklärbare (AI), manchmal als XAI bezeichnet.

Erklärbare AI kann definiert werden als:

  • Ein Satz von Prozessen und Methoden, die menschlichen Benutzern helfen, die Ergebnisse von Machine-Learning-Algorithmen zu verstehen und zu vertrauen.

Wie Sie erraten können, ist diese Erklärbarkeit unglaublich wichtig, da AI-Algorithmen die Kontrolle über viele Sektoren übernehmen, was mit dem Risiko von Voreingenommenheit, fehlerhaften Algorithmen und anderen Problemen verbunden ist. Durch die Erreichung von Transparenz mit Erklärbarkeit kann die Welt wirklich die Macht von AI nutzen.

Erklärbare AI, wie der Name schon sagt, hilft dabei, ein AI-Modell, seine Auswirkungen und potenzielle Voreingenommenheit zu beschreiben. Es spielt auch eine Rolle bei der Charakterisierung von Modellgenauigkeit, Fairness, Transparenz und Ergebnissen in AI-gesteuerten Entscheidungsprozessen.

Heutige AI-getriebene Organisationen sollten immer erklärbare AI-Prozesse anwenden, um Vertrauen und Vertrauen in die AI-Modelle in der Produktion aufzubauen. Erklärbare AI ist auch der Schlüssel, um ein verantwortungsvolles Unternehmen in der heutigen AI-Umgebung zu werden.

Da heutige AI-Systeme so fortschrittlich sind, führen Menschen normalerweise einen Berechnungsprozess durch, um nachzuvollziehen, wie der Algorithmus zu seinem Ergebnis gekommen ist. Dieser Prozess wird zu einer “black box”, was bedeutet, dass es unmöglich ist, zu verstehen. Wenn diese unerklärlichen Modelle direkt aus Daten entwickelt werden, kann niemand verstehen, was innerhalb von ihnen passiert.

Durch das Verständnis, wie AI-Systeme durch erklärbare AI funktionieren, können Entwickler sicherstellen, dass das System wie erwartet funktioniert. Es kann auch helfen, sicherzustellen, dass das Modell den regulatorischen Standards entspricht, und es bietet die Möglichkeit, das Modell zu hinterfragen oder zu ändern.

Bild: Dr. Matt Turek/DARPA

Unterschiede zwischen AI und XAI

Einige wichtige Unterschiede helfen dabei, “reguläre” AI von erklärbarer AI zu trennen, aber am wichtigsten ist, dass XAI spezifische Techniken und Methoden implementiert, die helfen, sicherzustellen, dass jede Entscheidung im ML-Prozess nachvollziehbar und erklärbar ist. Im Vergleich dazu kommt reguläre AI normalerweise zu ihrem Ergebnis mithilfe eines ML-Algorithms, aber es ist unmöglich, vollständig zu verstehen, wie der Algorithmus zu seinem Ergebnis gekommen ist. Im Falle von regulärer AI ist es extrem schwierig, die Genauigkeit zu überprüfen, was zu einem Verlust von Kontrolle, Rechenschaftspflicht und Prüfbarkeit führt.

Vorteile von Explainable AI

Es gibt viele Vorteile für jede Organisation, die erklärbare AI anwenden möchte, wie z.B.:

  • Schnellere Ergebnisse: Erklärbare AI ermöglicht es Organisationen, Modelle systematisch zu überwachen und zu verwalten, um Geschäftsergebnisse zu optimieren. Es ist möglich, die Modellleistung kontinuierlich zu bewerten und zu verbessern und die Modellentwicklung fein zu justieren.
  • Risiken minimieren: Durch die Anwendung von erklärbarer AI-Prozessen stellen Sie sicher, dass Ihre AI-Modelle erklärbar und transparent sind. Sie können regulatorische, Compliance-Risiken und andere Anforderungen verwalten, während Sie den Aufwand für manuelle Inspektion minimieren. All dies hilft auch dabei, das Risiko von ungewollter Voreingenommenheit zu minimieren. 
  • Vertrauen aufbauen: Erklärbare AI hilft dabei, Vertrauen in die Produktion von AI aufzubauen. AI-Modelle können schnell in die Produktion gebracht werden, Sie können Interpretierbarkeit und Erklärbarkeit sicherstellen und der Modellbewertungsprozess kann vereinfacht und transparenter gemacht werden.

Techniken für Explainable AI

Es gibt einige XAI-Techniken, die alle Organisationen in Betracht ziehen sollten, und sie bestehen aus drei Hauptmethoden: Genauigkeit der Vorhersage, Nachvollziehbarkeit und Entscheidungsverständnis.

Die erste der drei Methoden, Genauigkeit der Vorhersage, ist essentiell, um AI erfolgreich in täglichen Operationen einzusetzen. Simulationen können durchgeführt werden und XAI-Ausgaben können mit den Ergebnissen im Trainingsdatensatz verglichen werden, was hilft, die Genauigkeit der Vorhersage zu bestimmen. Eine der beliebtesten Techniken, um dies zu erreichen, ist Local Interpretable Model-Agnostic Explanations (LIME), eine Technik, die die Vorhersage von Klassifizierern durch den Machine-Learning-Algorithmus erklärt.

Die zweite Methode ist Nachvollziehbarkeit, die durch die Begrenzung der Entscheidungsmöglichkeiten sowie die Festlegung eines engeren Rahmens für Machine-Learning-Regeln und -Funktionen erreicht wird. Eine der gängigsten Nachvollziehbarkeitstechniken ist DeepLIFT oder Deep Learning Important FeaTures. DeepLIFT vergleicht die Aktivierung jedes Neurons mit seinem Referenzneuron, während es einen nachvollziehbaren Link zwischen jedem aktivierten Neuron zeigt. Es zeigt auch die Abhängigkeiten zwischen ihnen.

Die dritte und finale Methode ist Entscheidungsverständnis, das menschenorientiert ist, im Gegensatz zu den anderen beiden Methoden. Entscheidungsverständnis beinhaltet die Schulung der Organisation, insbesondere des Teams, das mit der AI arbeitet, um es zu ermöglichen, zu verstehen, wie und warum die AI Entscheidungen trifft. Diese Methode ist entscheidend, um Vertrauen in das System aufzubauen.

Prinzipien von Explainable AI

Um ein besseres Verständnis von XAI und seinen Prinzipien zu vermitteln, bietet das National Institute of Standards (NIST), das Teil des US-Handelsministeriums ist, Definitionen für vier Prinzipien von erklärbarer AI:

  1. Ein AI-System sollte Beweise, Unterstützung oder Begründung für jede Ausgabe liefern. 
  2. Ein AI-System sollte Erklärungen liefern, die von seinen Benutzern verstanden werden können. 
  3. Die Erklärung sollte den Prozess genau widerspiegeln, den das System verwendet, um zu seiner Ausgabe zu gelangen. 
  4. Das AI-System sollte nur unter den Bedingungen funktionieren, für die es entwickelt wurde, und es sollte keine Ausgabe liefern, wenn es nicht genug Vertrauen in das Ergebnis hat.

Diese Prinzipien können weiter in:

  • Bedeutsam: Um das Prinzip der Bedeutsamkeit zu erreichen, sollte der Benutzer die Erklärung verstehen. Dies könnte auch bedeuten, dass im Falle eines AI-Algorithms, der von verschiedenen Benutzertypen verwendet wird, es mehrere Erklärungen geben könnte. Zum Beispiel im Falle eines selbstfahrenden Autos könnte eine Erklärung lauten: “Die AI hat die Plastiktüte auf der Straße als Stein klassifiziert und daher Maßnahmen ergriffen, um sie zu vermeiden.” Während dies für den Fahrer funktionieren würde, wäre es nicht sehr nützlich für einen AI-Entwickler, der das Problem beheben möchte. In diesem Fall muss der Entwickler verstehen, warum es eine Fehlklassifizierung gab. 
  • Erklärungsgenauigkeit: Im Gegensatz zur Ausgabegenauigkeit beinhaltet die Erklärungsgenauigkeit, dass der AI-Algorithmus genau erklärt, wie er zu seiner Ausgabe gelangt ist. Zum Beispiel, wenn ein Kreditgenehmigungsalgorithmus eine Entscheidung auf der Grundlage des Einkommens eines Antragsstellers erklärt, obwohl es in Wirklichkeit auf dem Wohnort des Antragsstellers basiert, wäre die Erklärung ungenau. 
  • Wissensgrenzen: Die Wissensgrenzen des AI-Systems können auf zwei Arten erreicht werden, und es beinhaltet die Eingabe, die außerhalb der Expertise des Systems liegt. Zum Beispiel, wenn ein System entwickelt wird, um Vogelarten zu klassifizieren, und es ein Bild von einem Apfel erhält, sollte es in der Lage sein, zu erklären, dass die Eingabe kein Vogel ist. Wenn das System ein unscharfes Bild erhält, sollte es in der Lage sein, zu melden, dass es nicht in der Lage ist, den Vogel im Bild zu identifizieren, oder dass seine Identifizierung sehr geringes Vertrauen hat.

Rolle der Daten in Explainable AI

Eine der wichtigsten Komponenten von erklärbarer AI sind Daten.

Laut Google, bezüglich Daten und erklärbarer AI, “wird ein AI-System am besten durch die zugrunde liegenden Trainingsdaten und den Trainingsprozess sowie das resultierende AI-Modell verstanden”. Dieses Verständnis hängt von der Fähigkeit ab, ein trainiertes AI-Modell auf das genaue Datensatz zu beziehen, der zum Trainieren verwendet wurde, sowie die Fähigkeit, die Daten genau zu untersuchen.

Um die Erklärbarkeit eines Modells zu verbessern, ist es wichtig, auf die Trainingsdaten zu achten. Teams sollten die Herkunft der Daten bestimmen, die zum Trainieren eines Algorithmus verwendet wurden, die Rechtmäßigkeit und Ethik ihrer Beschaffung, mögliche Voreingenommenheit in den Daten und was getan werden kann, um diese Voreingenommenheit zu minimieren.

Ein weiterer kritischer Aspekt von Daten und XAI ist, dass irrelevante Daten für das System ausgeschlossen werden sollten. Um dies zu erreichen, sollten irrelevante Daten nicht in den Trainingsdatensatz oder die Eingabedaten aufgenommen werden.

Google hat eine Reihe von Praktiken empfohlen, um Interpretierbarkeit und Rechenschaftspflicht zu erreichen:

  • Planen Sie Ihre Optionen, um Interpretierbarkeit zu verfolgen
  • Behandeln Sie Interpretierbarkeit als einen wesentlichen Teil der Benutzeroberfläche
  • Entwerfen Sie das Modell, um es interpretierbar zu machen
  • Wählen Sie Metriken, die das Endziel und die Endaufgabe widerspiegeln
  • Verstehen Sie das trainierte Modell
  • Kommunizieren Sie Erklärungen an die Modellbenutzer
  • Führen Sie umfassende Tests durch, um sicherzustellen, dass das AI-System wie beabsichtigt funktioniert

Indem Sie diesen empfohlenen Praktiken folgen, kann Ihre Organisation sicherstellen, dass sie erklärbare AI erreicht, was für jedes AI-getriebene Unternehmen in der heutigen Umgebung von entscheidender Bedeutung ist.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.