Stummel Was ist erklärbare KI? - Unite.AI
Vernetzen Sie sich mit uns

AI 101

Was ist erklärbare KI?

Aktualisiert on
Bild: DeepMind auf Unsplash

Da künstliche Intelligenz (KI) immer komplexer wird und sich in der Gesellschaft immer mehr durchsetzt, ist eine der wichtigsten Gruppen von Prozessen und Methoden die erklärbare (KI), manchmal auch als XAI bezeichnet. 

Erklärbare KI kann definiert werden als:

  • Eine Reihe von Prozessen und Methoden, die menschlichen Benutzern helfen, die Ergebnisse von Algorithmen für maschinelles Lernen zu verstehen und ihnen zu vertrauen. 

Wie Sie sich vorstellen können, ist diese Erklärbarkeit unglaublich wichtig, da KI-Algorithmen die Kontrolle über viele Sektoren übernehmen, was das Risiko von Voreingenommenheit, fehlerhaften Algorithmen und anderen Problemen mit sich bringt. Durch das Erreichen von Transparenz mit Erklärbarkeit kann die Welt die Leistungsfähigkeit der KI wirklich nutzen. 

Erklärbare KI hilft, wie der Name schon sagt, bei der Beschreibung eines KI-Modells, seiner Auswirkungen und möglichen Verzerrungen. Es spielt auch eine Rolle bei der Charakterisierung von Modellgenauigkeit, Fairness, Transparenz und Ergebnissen in KI-gestützten Entscheidungsprozessen. 

Heutige KI-gesteuerte Organisationen sollten immer erklärbare KI-Prozesse einführen, um Vertrauen in die KI-Modelle in der Produktion aufzubauen. Erklärbare KI ist auch der Schlüssel, um im heutigen KI-Umfeld ein verantwortungsbewusstes Unternehmen zu werden.

Da heutige KI-Systeme so weit fortgeschritten sind, führt der Mensch meist einen Rechenvorgang durch, um nachzuvollziehen, wie der Algorithmus zu seinem Ergebnis gekommen ist. Dieser Prozess wird zu einer „Black Box“, was bedeutet, dass er nicht mehr nachvollziehbar ist. Wenn diese unerklärlichen Modelle direkt aus Daten entwickelt werden, kann niemand verstehen, was in ihnen vorgeht. 

Durch das Verständnis, wie KI-Systeme durch erklärbare KI funktionieren, können Entwickler sicherstellen, dass das System so funktioniert, wie es sollte. Es kann auch dazu beitragen, sicherzustellen, dass das Modell den regulatorischen Standards entspricht, und es bietet die Möglichkeit, das Modell in Frage zu stellen oder zu ändern. 

Bild: Dr. Matt Turek/DARPA

Unterschiede zwischen AI und XAI

Einige wichtige Unterschiede helfen dabei, „normale“ KI von erklärbarer KI zu unterscheiden, aber am wichtigsten ist, dass XAI spezifische Techniken und Methoden implementiert, die dabei helfen, sicherzustellen, dass jede Entscheidung im ML-Prozess nachvollziehbar und erklärbar ist. Im Vergleich dazu kommt normale KI in der Regel mithilfe eines ML-Algorithmus zu ihrem Ergebnis, es ist jedoch unmöglich, vollständig zu verstehen, wie der Algorithmus zu diesem Ergebnis gelangt ist. Bei regulärer KI ist es äußerst schwierig, die Genauigkeit zu überprüfen, was zu einem Verlust der Kontrolle, Verantwortlichkeit und Überprüfbarkeit führt. 

Vorteile erklärbarer KI 

Es gibt viele Vorteile für jedes Unternehmen, das erklärbare KI einführen möchte, wie zum Beispiel: 

  • Schnellere Ergebnisse: Erklärbare KI ermöglicht es Unternehmen, Modelle systematisch zu überwachen und zu verwalten, um Geschäftsergebnisse zu optimieren. Es ist möglich, die Modellleistung kontinuierlich zu bewerten und zu verbessern und die Modellentwicklung zu optimieren.
  • Risiken mindern: Durch die Einführung erklärbarer KI-Prozesse stellen Sie sicher, dass Ihre KI-Modelle erklärbar und transparent sind. Sie können Vorschriften, Compliance, Risiken und andere Anforderungen verwalten und gleichzeitig den Aufwand für manuelle Inspektionen minimieren. All dies trägt auch dazu bei, das Risiko einer unbeabsichtigten Voreingenommenheit zu verringern. 
  • Vertrauen aufbauen: Erklärbare KI trägt dazu bei, Vertrauen in die Produktions-KI aufzubauen. KI-Modelle können schnell in die Produktion gebracht werden, Sie können Interpretierbarkeit und Erklärbarkeit sicherstellen und der Modellbewertungsprozess kann vereinfacht und transparenter gemacht werden. 

Techniken für erklärbare KI

Es gibt einige XAI-Techniken, die alle Organisationen berücksichtigen sollten. Sie bestehen aus drei Hauptmethoden: Vorhersagegenauigkeit, Rückverfolgbarkeit und Entscheidungsverständnis

Die erste der drei Methoden, Vorhersagegenauigkeit, ist für den erfolgreichen Einsatz von KI im betrieblichen Alltag unerlässlich. Es können Simulationen durchgeführt und die XAI-Ausgabe mit den Ergebnissen im Trainingsdatensatz verglichen werden, was dabei hilft, die Vorhersagegenauigkeit zu bestimmen. Eine der beliebtesten Techniken, um dies zu erreichen, heißt Local Interpretable Model-Agnostic Explanations (LIME), eine Technik, die die Vorhersage von Klassifikatoren durch den Algorithmus für maschinelles Lernen erklärt. 

Die zweite Methode ist RückverfolgbarkeitDies wird dadurch erreicht, dass die Art und Weise, wie Entscheidungen getroffen werden können, eingeschränkt wird und ein engerer Spielraum für Regeln und Funktionen des maschinellen Lernens geschaffen wird. Eine der gebräuchlichsten Rückverfolgbarkeitstechniken ist DeepLIFT oder Deep Learning Important FeaTures. DeepLIFT vergleicht die Aktivierung jedes Neurons mit seinem Referenzneuron und weist gleichzeitig eine nachvollziehbare Verbindung zwischen jedem aktivierten Neuron nach. Es zeigt auch die Abhängigkeiten zwischen ihnen. 

Die dritte und letzte Methode ist Entscheidungsverständnis, die im Gegensatz zu den beiden anderen Methoden auf den Menschen ausgerichtet ist. Beim Entscheidungsverständnis geht es darum, die Organisation, insbesondere das Team, das mit der KI arbeitet, zu schulen, damit sie verstehen, wie und warum die KI Entscheidungen trifft. Diese Methode ist entscheidend für den Aufbau von Vertrauen in das System. 

Erklärbare KI-Prinzipien

Um ein besseres Verständnis von XAI und seinen Prinzipien zu ermöglichen, stellt das National Institute of Standards (NIST), das Teil des US-Handelsministeriums ist, Definitionen für vier Prinzipien erklärbarer KI bereit: 

  1. Ein KI-System sollte für jede Ausgabe Beweise, Unterstützung oder Begründung liefern. 
  2. Ein KI-System sollte Erklärungen geben, die für seine Benutzer verständlich sind. 
  3. Die Erklärung sollte den Prozess genau widerspiegeln, den das System verwendet, um zu seiner Ausgabe zu gelangen. 
  4. Das KI-System sollte nur unter den Bedingungen funktionieren, für die es entwickelt wurde, und es sollte keine Ergebnisse liefern, wenn es nicht genügend Vertrauen in das Ergebnis hat. 

Diese Prinzipien können noch weiter unterteilt werden in: 

  • Sinnvoll: Um das Prinzip der Sinnhaftigkeit zu erreichen, sollte ein Benutzer die bereitgestellte Erklärung verstehen. Dies könnte auch bedeuten, dass es mehrere Erklärungen geben könnte, wenn ein KI-Algorithmus von verschiedenen Benutzertypen verwendet wird. Im Fall eines selbstfahrenden Autos könnte eine Erklärung beispielsweise so lauten: „Die KI kategorisierte die Plastiktüte auf der Straße als Stein und ergriff daher Maßnahmen, um einen Zusammenstoß mit ihr zu vermeiden.“ Während dieses Beispiel für den Treiber funktionieren würde, wäre es für einen KI-Entwickler, der das Problem beheben möchte, nicht sehr nützlich. In diesem Fall muss der Entwickler verstehen, warum es zu einer Fehlklassifizierung kam. 
  • Erklärung Genauigkeit: Im Gegensatz zur Ausgabegenauigkeit erfordert die Erklärungsgenauigkeit, dass der KI-Algorithmus genau erklärt, wie er zu seiner Ausgabe gelangt ist. Wenn beispielsweise ein Kreditgenehmigungsalgorithmus eine Entscheidung auf der Grundlage des Einkommens eines Antrags erklärt, während diese in Wirklichkeit auf dem Wohnort des Antragstellers basiert, wäre die Erklärung ungenau. 
  • Wissensgrenzen: Die Wissensgrenzen der KI können auf zwei Arten erreicht werden, und zwar dadurch, dass die Eingabe außerhalb des Fachwissens des Systems liegt. Wenn beispielsweise ein System zur Klassifizierung von Vogelarten erstellt wird und ihm ein Bild eines Apfels gegeben wird, sollte es erklären können, dass es sich bei der Eingabe nicht um einen Vogel handelt. Wenn das System ein verschwommenes Bild erhält, sollte es melden können, dass es den Vogel auf dem Bild nicht identifizieren kann, oder alternativ, dass seine Identifizierung nur eine sehr geringe Zuverlässigkeit aufweist. 

Die Rolle von Daten in der erklärbaren KI

Eine der wichtigsten Komponenten erklärbarer KI sind Daten. 

Laut GoogleIn Bezug auf Daten und erklärbare KI lässt sich „ein KI-System am besten anhand der zugrunde liegenden Trainingsdaten und des Trainingsprozesses sowie des resultierenden KI-Modells verstehen.“ Dieses Verständnis hängt von der Fähigkeit ab, ein trainiertes KI-Modell dem genauen Datensatz zuzuordnen, der zum Trainieren verwendet wurde, sowie von der Fähigkeit, die Daten genau zu untersuchen. 

Um die Erklärbarkeit eines Modells zu verbessern, ist es wichtig, auf die Trainingsdaten zu achten. Die Teams sollten die Herkunft der Daten ermitteln, die zum Trainieren eines Algorithmus verwendet werden, die Rechtmäßigkeit und Ethik rund um ihre Beschaffung, mögliche Verzerrungen in den Daten und was getan werden kann, um Verzerrungen zu mildern. 

Ein weiterer kritischer Aspekt von Daten und XAI besteht darin, dass für das System irrelevante Daten ausgeschlossen werden sollten. Um dies zu erreichen, dürfen die irrelevanten Daten nicht im Trainingssatz oder den Eingabedaten enthalten sein. 

Google hat eine Reihe von Vorgehensweisen empfohlen, um Interpretierbarkeit und Verantwortlichkeit zu erreichen: 

  • Planen Sie Ihre Möglichkeiten, um die Interpretierbarkeit zu erreichen
  • Behandeln Sie die Interpretierbarkeit als einen zentralen Bestandteil der Benutzererfahrung
  • Gestalten Sie das Modell so, dass es interpretierbar ist
  • Wählen Sie Metriken aus, die das Endziel und die Endaufgabe widerspiegeln
  • Verstehen Sie das trainierte Modell
  • Übermitteln Sie den Modellbenutzern Erklärungen
  • Führen Sie zahlreiche Tests durch, um sicherzustellen, dass das KI-System wie vorgesehen funktioniert 

Durch die Befolgung dieser empfohlenen Vorgehensweisen kann Ihr Unternehmen sicherstellen, dass es eine erklärbare KI erreicht, die für jede KI-gesteuerte Organisation in der heutigen Umgebung von entscheidender Bedeutung ist. 

 

Alex McFarland ist ein KI-Journalist und Autor, der sich mit den neuesten Entwicklungen in der künstlichen Intelligenz beschäftigt. Er hat mit zahlreichen KI-Startups und Publikationen weltweit zusammengearbeitet.