Stummel Erklärbare KI mit ausdrucksstarken booleschen Formeln – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Erklärbare KI mit ausdrucksstarken booleschen Formeln

mm

Veröffentlicht

 on

Die explosionsartige Verbreitung künstlicher Intelligenz (KI) und maschineller Lernanwendungen durchdringt nahezu jede Branche und jeden Lebensbereich.

Aber sein Wachstum kommt nicht ohne Ironie. Obwohl KI existiert, um die Entscheidungsfindung oder Arbeitsabläufe zu vereinfachen und/oder zu beschleunigen, ist die Methodik dafür oft äußerst komplex. Tatsächlich sind einige „Black-Box“-Algorithmen für maschinelles Lernen so kompliziert und vielschichtig, dass sie sich einer einfachen Erklärung entziehen, selbst von den Informatikern, die sie entwickelt haben.

Das kann recht problematisch sein, wenn bestimmte Anwendungsfälle – etwa in den Bereichen Finanzen und Medizin – durch Best Practices der Branche oder staatliche Vorschriften definiert sind, die transparente Erklärungen zum Innenleben von KI-Lösungen erfordern. Und wenn diese Anwendungen nicht aussagekräftig genug sind, um die Erklärbarkeitsanforderungen zu erfüllen, können sie unabhängig von ihrer Gesamtwirksamkeit nutzlos werden.

Um dieses Rätsel zu lösen, hat unser Team am Fidelity Center für angewandte Technologie (FCAT) – in Zusammenarbeit mit dem Amazon Quantum Solutions Lab – hat ein interpretierbares maschinelles Lernmodell für Explainable AI (XAI) vorgeschlagen und implementiert, das auf ausdrucksstarken booleschen Formeln basiert. Ein solcher Ansatz kann jeden Operator umfassen, der auf eine oder mehrere boolesche Variablen angewendet werden kann und somit eine höhere Ausdruckskraft im Vergleich zu strengeren regelbasierten und baumbasierten Ansätzen bietet.

Sie können die lesen volles Papier Ausführliche Informationen zu diesem Projekt finden Sie hier.

Unsere Hypothese war, dass die Notwendigkeit, eine ausdrucksstarke Regel mit geringer Komplexität, aber hoher Genauigkeit zu finden, ein hartnäckiges Optimierungsproblem darstellte, das gelöst werden musste, da Modelle – wie z. B. Entscheidungsbäume – tiefgreifend und schwer zu interpretieren sein können. Darüber hinaus könnten wir durch die Vereinfachung des Modells durch diesen fortschrittlichen XAI-Ansatz zusätzliche Vorteile erzielen, z. B. das Aufdecken von Vorurteilen, die im Kontext der ethischen und verantwortungsvollen Nutzung von ML wichtig sind; Gleichzeitig wird es einfacher, das Modell zu warten und zu verbessern.

Wir haben einen Ansatz vorgeschlagen, der auf ausdrucksstarken booleschen Formeln basiert, da diese Regeln mit einstellbarer Komplexität (oder Interpretierbarkeit) definieren, nach denen Eingabedaten klassifiziert werden. Eine solche Formel kann einen beliebigen Operator enthalten, der auf eine oder mehrere boolesche Variablen angewendet werden kann (z. B. „And“ oder „AtLeast“) und so eine höhere Ausdruckskraft im Vergleich zu strengeren regelbasierten und baumbasierten Methoden bietet.

Bei diesem Problem haben wir zwei konkurrierende Ziele: Maximierung der Leistung des Algorithmus bei gleichzeitiger Minimierung seiner Komplexität. Anstatt also den typischen Ansatz zu wählen, eine von zwei Optimierungsmethoden anzuwenden – mehrere Ziele zu einem zu kombinieren oder eines der Ziele einzuschränken – haben wir uns dafür entschieden, beide in unsere Formulierung einzubeziehen. Dabei verwenden wir ohne Beschränkung der Allgemeinheit hauptsächlich die ausgewogene Genauigkeit als übergeordnete Leistungsmetrik.

Durch die Einbeziehung von Betreibern wie AtLeast waren wir außerdem von der Idee motiviert, dem Bedarf an gut interpretierbaren Checklisten gerecht zu werden, beispielsweise einer Liste medizinischer Symptome, die auf eine bestimmte Erkrankung hinweisen. Es ist denkbar, dass eine Entscheidung anhand einer solchen Checkliste von Symptomen so getroffen wird, dass für eine positive Diagnose eine Mindestanzahl vorhanden sein muss. Ebenso kann eine Bank im Finanzwesen entscheiden, ob sie einem Kunden einen Kredit gewährt oder nicht, basierend auf dem Vorhandensein einer bestimmten Anzahl von Faktoren aus einer größeren Liste.

Wir haben unser XAI-Modell erfolgreich implementiert und es anhand einiger öffentlicher Datensätze zu Kreditwürdigkeit, Kundenverhalten und Gesundheitszuständen verglichen. Wir haben festgestellt, dass unser Modell im Allgemeinen mit anderen bekannten Alternativen konkurrenzfähig ist. Wir haben auch herausgefunden, dass unser XAI-Modell möglicherweise durch spezielle Hardware oder Quantengeräte zur Lösung schneller ganzzahliger linearer Programmierung (ILP) oder quadratischer uneingeschränkter binärer Optimierung (QUBO) unterstützt werden kann. Das Hinzufügen von QUBO-Lösern reduziert die Anzahl der Iterationen – was zu einer Beschleunigung durch schnelle Vorschläge nichtlokaler Bewegungen führt.

Wie bereits erwähnt, können erklärbare KI-Modelle, die boolesche Formeln verwenden, viele Anwendungen im Gesundheitswesen und im Finanzbereich von Fidelity haben (z. B. zur Kreditbewertung oder zur Beurteilung, warum einige Kunden ein Produkt ausgewählt haben, andere jedoch nicht). Durch die Erstellung dieser interpretierbaren Regeln können wir ein höheres Maß an Erkenntnissen gewinnen, die zu zukünftigen Verbesserungen bei der Produktentwicklung oder -verfeinerung sowie zur Optimierung von Marketingkampagnen führen können.

Basierend auf unseren Erkenntnissen haben wir festgestellt, dass erklärbare KI mit ausdrucksstarken booleschen Formeln für Anwendungsfälle, die eine weitere Erklärbarkeit erfordern, sowohl geeignet als auch wünschenswert ist. Darüber hinaus sehen wir im Zuge der Weiterentwicklung des Quantencomputings die Möglichkeit, durch den Einsatz von Quantencomputing und anderen Hardwarebeschleunigern für spezielle Zwecke potenzielle Beschleunigungen zu erzielen.

Zukünftige Arbeiten könnten sich auf die Anwendung dieser Klassifikatoren auf andere Datensätze, die Einführung neuer Operatoren oder die Anwendung dieser Konzepte auf andere Anwendungsfälle konzentrieren.

Elton Zhu ist Quantenforscher am Fidelity Center für angewandte Technologie (FCAT), ein Zweig von Fidelity Investments, der als Katalysator für bahnbrechende Erfolge in Forschung und Technologie fungiert. Dr. Zhu interessiert sich allgemein für die Schnittstelle zwischen Quantencomputing, Finanzen und künstlicher Intelligenz und leitet Fidelitys Forschung darüber, wie Quantencomputing in einer Vielzahl von Anwendungsfällen angewendet werden kann.