Stummel KI-Forscher entwickeln eine schnelle Methode zur Berechnung von Konfidenzintervallen und melden, wenn dem Modell nicht vertraut werden sollte – Unite.AI
Vernetzen Sie sich mit uns

Künstliche Intelligenz

KI-Forscher entwickeln eine schnelle Methode zur Berechnung von Konfidenzintervallen und melden, wenn dem Modell nicht vertraut werden sollte

mm

Veröffentlicht

 on

Forscher vom MIT habe vor kurzem eine Technik entwickelt Dadurch können Deep-Learning-Netzwerkmodelle schnell Konfidenzniveaus berechnen, was Datenwissenschaftlern und anderen KI-Benutzern helfen könnte, zu erkennen, wann sie den von einem Modell gemachten Vorhersagen vertrauen können.

KI-Systeme auf Basis künstlicher neuronaler Netze sind heutzutage für immer mehr Entscheidungen verantwortlich, darunter viele Entscheidungen, die die Gesundheit und Sicherheit von Menschen betreffen. Aus diesem Grund sollten neuronale Netze über eine Methode zur Schätzung der Zuverlässigkeit ihrer Ergebnisse verfügen, damit Datenwissenschaftler feststellen können, wie vertrauenswürdig ihre Vorhersagen sind. Kürzlich hat ein Forscherteam aus Harvard und MIT eine schnelle Möglichkeit für neuronale Netze entwickelt, neben den Vorhersagen auch einen Hinweis auf die Zuverlässigkeit eines Modells zu generieren.

Deep-Learning-Modelle sind im letzten Jahrzehnt immer ausgefeilter geworden und können nun Menschen bei Datenklassifizierungsaufgaben problemlos übertreffen. Deep-Learning-Modelle werden in Bereichen eingesetzt, in denen die Gesundheit und Sicherheit von Menschen gefährdet sein kann, wenn sie ausfallen, etwa beim Fahren autonomer Fahrzeuge und bei der Diagnose medizinischer Zustände anhand von Scans. In diesen Fällen reicht es nicht aus, dass ein Modell zu 99 % genau ist, denn bereits 1 % der Fälle, in denen das Modell ausfällt, kann zu einer Katastrophe führen. Daher muss es für Datenwissenschaftler eine Möglichkeit geben, festzustellen, wie vertrauenswürdig eine bestimmte Vorhersage ist.

Es gibt eine Handvoll Möglichkeiten, ein Konfidenzintervall zusammen mit den Vorhersagen neuronaler Netze zu generieren, aber herkömmliche Methoden zur Schätzung der Unsicherheit für ein neuronales Netz sind ziemlich langsam und rechenintensiv. Neuronale Netze können unglaublich groß und komplex sein und Milliarden von Parametern enthalten. Allein das Generieren von Vorhersagen kann rechenintensiv sein und viel Zeit in Anspruch nehmen, und das Generieren eines Konfidenzniveaus für die Vorhersagen dauert sogar noch länger. Die meisten bisherigen Methoden zur Quantifizierung der Unsicherheit beruhten auf der wiederholten Stichprobenziehung oder dem wiederholten Ausführen eines Netzwerks, um eine Schätzung seiner Konfidenz zu erhalten. Dies ist für Anwendungen, die Hochgeschwindigkeitsverkehr erfordern, nicht immer möglich.

Wie von MIT News berichtetAlexander Amini leitet die gemeinsame Gruppe von Forschern vom MIT und Harvard, und laut Amini beschleunigt die von ihren Forschern entwickelte Methode den Prozess der Generierung von Unsicherheitsschätzungen mithilfe einer Technik namens „Deep Evidential Regression“. Amini erklärte über das MIT, dass Datenwissenschaftler sowohl Hochgeschwindigkeitsmodelle als auch zuverlässige Schätzungen der Unsicherheit benötigen, damit nicht vertrauenswürdige Modelle erkannt werden können. Um sowohl die Geschwindigkeit des Modells zu erhalten als auch eine Unsicherheitsschätzung zu generieren, entwickelten die Forscher eine Möglichkeit, die Unsicherheit anhand nur eines einzigen Modelllaufs abzuschätzen.

Die Forscher gestalteten das neuronale Netzwerkmodell so, dass neben jeder Entscheidung eine Wahrscheinlichkeitsverteilung generiert wurde. Das Netzwerk behält während des Trainingsprozesses Belege für seine Entscheidungen bei und generiert auf der Grundlage der Belege eine Wahrscheinlichkeitsverteilung. Die Beweisverteilung stellt die Konfidenz des Modells dar und stellt die Unsicherheit sowohl für die endgültige Entscheidung des Modells als auch für die ursprünglichen Eingabedaten dar. Die Erfassung der Unsicherheit sowohl für Eingabedaten als auch für Entscheidungen ist wichtig, da die Verringerung der Unsicherheit davon abhängt, die Quelle der Unsicherheit zu kennen.

Die Forscher testeten ihre Technik zur Unsicherheitsschätzung, indem sie sie auf eine Computer-Vision-Aufgabe anwendeten. Nachdem das Modell anhand einer Reihe von Bildern trainiert wurde, generierte es sowohl Vorhersagen als auch Unsicherheitsschätzungen. Das Netzwerk prognostizierte korrekt eine hohe Unsicherheit für Fälle, in denen eine falsche Vorhersage gemacht wurde. „Es war sehr auf die Fehler abgestimmt, die das Netzwerk macht, was unserer Meinung nach einer der wichtigsten Aspekte bei der Beurteilung der Qualität eines neuen Unsicherheitsschätzers war“, sagte Amini zu den Testergebnissen des Modells.

Anschließend führte das Forschungsteam weitere Tests mit seiner Netzwerkarchitektur durch. Um die Technik einem Stresstest zu unterziehen, testeten sie die Daten auch mit „außerhalb der Verteilung“ liegenden Daten, also Datensätzen, die aus Objekten bestanden, die das Netzwerk noch nie zuvor gesehen hatte. Wie erwartet meldete das Netzwerk eine höhere Unsicherheit für diese unsichtbaren Objekte. Beim Training in Innenräumen zeigte das Netzwerk beim Testen an Bildern aus Außenumgebungen eine hohe Unsicherheit. Die Tests zeigten, dass das Netzwerk erkennen konnte, wenn seine Entscheidungen mit großer Unsicherheit behaftet waren und ihm unter bestimmten, risikoreichen Umständen nicht vertraut werden sollte.

Das Forschungsteam berichtete sogar, dass das Netzwerk erkennen könne, wenn Bilder manipuliert worden seien. Als das Forschungsteam Fotos mit unerwünschtem Rauschen veränderte, markierte das Netzwerk die neu veränderten Bilder mit Schätzungen mit hoher Unsicherheit, obwohl der Effekt zu subtil war, um vom durchschnittlichen menschlichen Beobachter gesehen zu werden.

Wenn sich die Technik als zuverlässig erweist, könnte eine tiefgreifende Beweisregression die Sicherheit von KI-Modellen im Allgemeinen verbessern. Laut Amini könnte eine tiefgreifende beweiskräftige Regression Menschen dabei helfen, sorgfältige Entscheidungen zu treffen, wenn sie KI-Modelle in riskanten Situationen einsetzen. Wie Amini über MIT News erklärte:

„Wir sehen, dass immer mehr dieser [neuronalen Netzwerk-]Modelle aus dem Forschungslabor in die reale Welt gelangen, in Situationen, die Menschen berühren und möglicherweise lebensbedrohliche Folgen haben. Jeder Anwender der Methode, sei es ein Arzt oder eine Person auf dem Beifahrersitz eines Fahrzeugs, muss sich aller mit dieser Entscheidung verbundenen Risiken und Unsicherheiten bewusst sein.“