Künstliche Intelligenz
Gemeinsame Annahmen über Maschinelles Lernen-Fehlfunktionen könnten falsch sein

Tiefere neuronale Netze sind einer der grundlegendsten Aspekte der künstlichen Intelligenz (KI), da sie zur Verarbeitung von Bildern und Daten durch mathematische Modellierung verwendet werden. Sie sind für einige der größten Fortschritte in diesem Bereich verantwortlich, aber sie funktionieren auch auf verschiedene Weise fehlerhaft. Diese Fehlfunktionen können einen kleinen bis nicht existierenden Einfluss haben, wie eine einfache Fehlidentifizierung, oder einen dramatischeren und tödlicheren, wie ein Fehlfunktion eines selbstfahrenden Fahrzeugs.
Neue Forschungsergebnisse aus der University of Houston deuten darauf hin, dass unsere gemeinsamen Annahmen über diese Fehlfunktionen falsch sein könnten, was dazu beitragen könnte, die Zuverlässigkeit der Netze in Zukunft zu bewerten.
Der Artikel wurde im November in Nature Machine Intelligence veröffentlicht.
„Adversarial Examples“
Maschinelles Lernen und andere Arten von KI sind in vielen Bereichen und Aufgaben von entscheidender Bedeutung, wie z.B. im Bankwesen und in Sicherheitssystemen. Laut Cameron Buckner, einem Associate Professor für Philosophie an der UH, muss es ein Verständnis für die durch „adversarial Examples“ verursachten Fehlfunktionen geben. Diese adversarial Examples treten auf, wenn ein tiefes neuronales Netzwerk-System Bilder und andere Daten falsch interpretiert, wenn es auf Informationen stößt, die außerhalb der Trainingsinputs liegen, die zur Entwicklung des Netzwerks verwendet wurden.
Die adversarial Examples sind selten, da sie oft von einem anderen maschinellen Lernnetzwerk erstellt oder entdeckt werden.
„Einige dieser adversarialen Ereignisse könnten stattdessen Artefakte sein, und wir müssen besser verstehen, was sie sind, um zu wissen, wie zuverlässig diese Netze sind“, schrieb Buckner.
Buckner sagt, dass die Fehlfunktion durch die Wechselwirkung zwischen den tatsächlichen Mustern und dem verarbeiteten Netzwerk verursacht werden kann, was bedeutet, dass es sich nicht um einen vollständigen Fehler handelt.
Muster als Artefakte
„Das Verständnis der Auswirkungen von adversarialen Examples erfordert die Erforschung einer dritten Möglichkeit: dass mindestens einige dieser Muster Artefakte sind“, sagte Buckner. „Es gibt derzeit sowohl Kosten durch das einfache Wegwerfen dieser Muster als auch Gefahren durch ihre naive Verwendung.“
Obwohl es nicht immer der Fall ist, ist vorsätzliche Schädigung das größte Risiko in Bezug auf diese adversarialen Ereignisse, die zu Fehlfunktionen des maschinellen Lernens führen.
„Es bedeutet, dass bösartige Akteure Systeme täuschen könnten, die auf einem ansonsten zuverlässigen Netzwerk basieren“, sagte Buckner. „Das hat Sicherheitsanwendungen.“
Dies könnte bedeuten, dass Hacker ein Sicherheitssystem auf der Grundlage von Gesichtserkennungstechnologie durchbrechen oder Verkehrszeichen falsch beschriften, um autonome Fahrzeuge zu verwirren.
Andere vorherige Forschungen haben gezeigt, dass einige der adversarialen Examples natürlicherweise auftreten, wenn ein maschinelles Lernsystem Daten durch eine unerwartete Wechselwirkung falsch interpretiert, was sich von Fehlern in den Daten unterscheidet. Diese natürlicherweise auftretenden Beispiele sind selten und die einzige Möglichkeit, sie derzeit zu entdecken, ist durch KI.
Buckner sagt jedoch, dass Forscher ihre Ansätze zur Behandlung von Anomalien überdenken müssen.
Diese Anomalien oder Artefakte werden von Buckner durch die Analogie eines Linsenflares in einem Foto erklärt, der nicht durch einen Defekt in der Kamera-Linse verursacht wird, sondern durch die Wechselwirkung von Licht mit der Kamera.
Wenn man weiß, wie man den Linsenflair interpretiert, kann man wichtige Informationen wie den Standort der Sonne extrahieren. Deshalb denkt Buckner, dass es möglich ist, gleichwertige Informationen aus adversen Ereignissen im maschinellen Lernen zu extrahieren, die durch Artefakte verursacht werden.
Buckner sagt auch, dass all dies nicht automatisch bedeutet, dass tiefes Lernen nicht gültig ist.
„Einige dieser adversarialen Ereignisse könnten Artefakte sein“, sagte er. „Wir müssen wissen, was diese Artefakte sind, um zu wissen, wie zuverlässig die Netze sind.“










