Ethik
Google erstellt neues erklärbares KI-Programm zur Verbesserung der Transparenz und Debugbarkeit

Erst kürzlich kündigte Google die Schaffung einer neuen Cloud-Plattform an, die Einblicke in die Art und Weise ermöglichen soll, wie ein KI-Programm Entscheidungen trifft, das Debuggen eines Programms erleichtert und die Transparenz erhöht. Wie berichtet von Das RegisterDie Cloud-Plattform heißt Explainable AI und stellt einen großen Versuch von Google dar, in die Erklärbarkeit von KI zu investieren.
Künstliche neuronale Netze werden heute in vielen, vielleicht sogar den meisten der wichtigsten KI-Systeme der Welt eingesetzt. Die neuronalen Netze, die große KI-Anwendungen ausführen, können außerordentlich komplex und groß sein, und mit zunehmender Komplexität eines Systems wird es immer schwieriger zu verstehen, warum das System eine bestimmte Entscheidung getroffen hat. Wie Google in seinem Whitepaper erklärt, werden KI-Systeme mit zunehmender Leistungsfähigkeit auch komplexer und daher schwieriger zu debuggen. In diesem Fall geht auch die Transparenz verloren, was dazu führt, dass voreingenommene Algorithmen schwer zu erkennen und zu beheben sind.
Die Tatsache, dass die Argumentation, die das Verhalten komplexer Systeme bestimmt, so schwer zu interpretieren ist, hat oft drastische Konsequenzen. Dies erschwert nicht nur die Bekämpfung von KI-Voreingenommenheit, sondern kann es auch außerordentlich schwierig machen, falsche Korrelationen von wirklich wichtigen und interessanten Korrelationen zu unterscheiden.
Viele Unternehmen und Forschungsgruppen erforschen, wie man das „Black-Box“-Problem der KI angehen und ein System schaffen kann, das angemessen erklärt, warum bestimmte Entscheidungen von einer KI getroffen wurden. Die Explainable AI-Plattform von Google stellt einen eigenen Versuch dar, diese Herausforderung anzugehen. Erklärbare KI besteht aus drei verschiedenen Tools. Das erste Tool ist ein System, das beschreibt, welche Merkmale von einer KI ausgewählt wurden, und außerdem einen Attributionswert anzeigt, der den Einfluss darstellt, den ein bestimmtes Merkmal auf die endgültige Vorhersage hat. Der Bericht von Google über das Tool liefert ein Beispiel für die Vorhersage, wie lange eine Radtour dauern wird, basierend auf Variablen wie Niederschlag, aktuelle Temperatur, Wochentag und Startzeit. Nachdem das Netzwerk die Entscheidung getroffen hat, erfolgt eine Rückmeldung, die zeigt, welche Funktionen den größten Einfluss auf die Vorhersagen hatten.
Wie liefert dieses Tool ein solches Feedback bei Bilddaten? In diesem Fall erstellt das Tool eine Überlagerung, die die Bereiche des Bildes hervorhebt, die die gerenderte Entscheidung am stärksten beeinflusst haben.
Ein weiteres im Toolkit enthaltenes Tool ist das „Was-wäre-wenn“-Tool, das mögliche Schwankungen in der Modellleistung anzeigt, wenn einzelne Attribute manipuliert werden. Schließlich kann das letzte Tool so eingerichtet werden, dass Probenergebnisse nach einem konsistenten Zeitplan an menschliche Prüfer weitergegeben werden.
Dr. Andrew Moore, Googles Chefwissenschaftler für KI und maschinelles Lernen, beschrieb die Inspiration für das Projekt. Moore erklärte, dass sich die akademische Gemeinschaft vor etwa fünf Jahren Sorgen über die schädlichen Nebenprodukte des KI-Einsatzes machte und Google sicherstellen wollte, dass seine Systeme nur auf ethische Weise eingesetzt werden. Moore beschrieb einen Vorfall, bei dem das Unternehmen versuchte, ein Computer-Vision-Programm zu entwickeln, das Bauarbeiter warnt, wenn jemand keinen Helm trägt. Man befürchtete jedoch, dass die Überwachung zu weit gehen und entmenschlichend wirken könnte. Moore sagte, es gebe einen ähnlichen Grund, warum Google sich entschied, keine allgemeine API zur Gesichtserkennung zu veröffentlichen: Das Unternehmen wollte mehr Kontrolle über die Nutzung seiner Technologie und sicherstellen, dass diese nur auf ethische Weise eingesetzt wird.
Moore hob ebenfalls hervor Warum es so wichtig war, dass die Entscheidung von AI erklärbar war:
Wenn Sie ein sicherheitskritisches System oder eine gesellschaftlich wichtige Sache haben, die unbeabsichtigte Folgen haben könnte, wenn Sie glauben, dass Ihr Modell einen Fehler gemacht hat, müssen Sie in der Lage sein, diesen zu diagnostizieren. Wir wollen sorgfältig erklären, was Erklärbarkeit leisten kann und was nicht. Sie ist kein Allheilmittel.












