Connect with us

Erklärbarkeit kann jedes Industries AI-Problem angehen: Der Mangel an Transparenz

Vordenker

Erklärbarkeit kann jedes Industries AI-Problem angehen: Der Mangel an Transparenz

mm

Von: Migüel Jetté, VP of R&D Speech, Rev.

In ihren Anfängen konnte künstliche Intelligenz vielleicht auf den Lorbeeren der Neuheit ruhen. Es war okay, dass maschinelles Lernen langsam lernte und einen undurchsichtigen Prozess beibehielt, bei dem die Berechnung der künstlichen Intelligenz für den durchschnittlichen Verbraucher nicht zu durchdringen war. Das ändert sich. Da immer mehr Branchen wie Gesundheitswesen, Finanzen und Strafjustiz künstliche Intelligenz auf eine Weise einsetzen, die einen realen Einfluss auf das Leben der Menschen haben kann, wollen immer mehr Menschen wissen, wie die Algorithmen eingesetzt werden, wie die Daten beschafft werden und wie genau ihre Fähigkeiten sind. Wenn Unternehmen an der Spitze der Innovation in ihren Märkten bleiben wollen, müssen sie auf künstliche Intelligenz setzen, der ihre Zielgruppe vertraut. Die Erklärbarkeit der künstlichen Intelligenz ist das Schlüsselelement, um diese Beziehung zu vertiefen.

Die Erklärbarkeit der künstlichen Intelligenz unterscheidet sich von den Standardverfahren der künstlichen Intelligenz, da sie den Menschen eine Möglichkeit bietet, zu verstehen, wie die maschinellen Lernalgorithmen Ausgaben erzeugen. Erklärbare künstliche Intelligenz ist ein System, das den Menschen mögliche Ergebnisse und Schwächen bieten kann. Es ist ein maschinelles Lernsystem, das den sehr menschlichen Wunsch nach Fairness, Rechenschaftspflicht und Respekt für die Privatsphäre erfüllen kann. Erklärbare künstliche Intelligenz ist für Unternehmen unerlässlich, um Vertrauen bei den Verbrauchern aufzubauen.

Während die künstliche Intelligenz expandiert, müssen die Anbieter der künstlichen Intelligenz verstehen, dass die Black-Box nicht kann. Black-Box-Modelle werden direkt aus den Daten erstellt und oft kann nicht einmal der Entwickler, der den Algorithmus erstellt hat, identifizieren, was die gelernten Gewohnheiten der Maschine angetrieben hat. Aber der gewissenhafte Verbraucher will nicht mit etwas interagieren, das so undurchsichtig ist, dass es nicht zur Rechenschaft gezogen werden kann. Die Menschen wollen wissen, wie ein Algorithmus der künstlichen Intelligenz zu einem bestimmten Ergebnis gelangt, ohne das Geheimnis der Quelleneingabe und der kontrollierten Ausgabe, besonders wenn die Fehlleistungen der künstlichen Intelligenz oft auf maschinelle Vorurteile zurückzuführen sind. Da die künstliche Intelligenz fortschreitet, wollen die Menschen Zugang zum maschinellen Lernprozess, um zu verstehen, wie der Algorithmus zu seinem bestimmten Ergebnis gelangt ist. Führungskräfte in jeder Branche müssen verstehen, dass die Menschen früher oder später nicht mehr nur Zugang zu dieser Transparenz bevorzugen, sondern sie als notwendiges Transparenzniveau fordern werden.

ASR-Systeme wie sprachaktivierte Assistenten, Transkriptionstechnologie und andere Dienste, die menschliche Sprache in Text umwandeln, sind besonders von Vorurteilen geplagt. Wenn der Dienst für Sicherheitsmaßnahmen eingesetzt wird, können Fehler aufgrund von Akzenten, des Alters oder des Hintergrunds einer Person schwerwiegende Fehler sein, sodass das Problem ernst genommen werden muss. ASR kann beispielsweise in Polizeikörperkameras effektiv eingesetzt werden, um Interaktionen automatisch aufzuzeichnen und zu transkribieren – eine Aufzeichnung, die, wenn sie genau transkribiert wird, Leben retten kann. Die Praxis der Erklärbarkeit erfordert, dass die künstliche Intelligenz nicht nur auf gekaufte Datensätze setzt, sondern auch die Merkmale des eingehenden Audios verstehen muss, die zu Fehlern führen können, wenn diese existieren. Was ist das akustische Profil? Gibt es Hintergrundgeräusche? Ist der Sprecher aus einem nicht englischsprachigen Land oder aus einer Generation, die ein Vokabular verwendet, das die künstliche Intelligenz noch nicht gelernt hat? Maschinelles Lernen muss proaktiv lernen, schneller zu lernen, und es kann beginnen, Daten zu sammeln, die diese Variablen ansprechen.

Die Notwendigkeit wird offensichtlich, aber der Weg zur Umsetzung dieser Methodik wird nicht immer eine einfache Lösung haben. Die traditionelle Antwort auf das Problem besteht darin, mehr Daten hinzuzufügen, aber eine sophistischere Lösung wird notwendig sein, besonders wenn die von Unternehmen verwendeten gekauften Datensätze von Natur aus voreingenommen sind. Dies liegt daran, dass es historisch gesehen schwierig war, eine bestimmte Entscheidung zu erklären, die von der künstlichen Intelligenz getroffen wurde, und das liegt an der Komplexität der End-to-End-Modelle. Wir können jedoch jetzt und können beginnen, zu fragen, wie die Menschen das Vertrauen in die künstliche Intelligenz verloren haben.

Unvermeidlich wird die künstliche Intelligenz Fehler machen. Unternehmen müssen Modelle aufbauen, die sich ihrer möglichen Schwächen bewusst sind, identifizieren, wo und wann die Probleme auftreten, und kontinuierliche Lösungen erstellen, um stärkere Modelle der künstlichen Intelligenz zu entwickeln:

  1. Wenn etwas schiefgeht, werden die Entwickler erklären müssen, was passiert ist und ein sofortigen Plan zur Verbesserung des Modells entwickeln, um zukünftige, ähnliche Fehler zu reduzieren.
  2. Damit die Maschine tatsächlich weiß, ob sie richtig oder falsch war, müssen Wissenschaftler eine Rückkopplungsschleife erstellen, damit die künstliche Intelligenz ihre Schwächen lernen und sich weiterentwickeln kann.
  3. Ein weiterer Weg, um Vertrauen aufzubauen, während die künstliche Intelligenz noch verbessert wird, besteht darin, ein System zu erstellen, das Vertrauenswerte bereitstellen kann, und Gründe anzugeben, warum die künstliche Intelligenz weniger zuverlässig ist. Beispielsweise generieren Unternehmen in der Regel Werte von null bis 100, um ihre eigenen Unvollkommenheiten der künstlichen Intelligenz widerzuspiegeln und Transparenz mit ihren Kunden herzustellen. In Zukunft können Systeme möglicherweise post-hoc-Erklärungen dafür liefern, warum das Audio herausfordernd war, indem sie mehr Metadaten über das Audio bereitstellen, wie z. B. die wahrgenommene Lautstärke oder einen weniger verstandenen Akzent.

Eine zusätzliche Transparenz wird zu einer besseren menschlichen Überwachung der Ausbildung und Leistung der künstlichen Intelligenz führen. Je offener wir darüber sind, wo wir verbessert werden müssen, desto rechenschaftspflichtiger sind wir, Maßnahmen zu ergreifen, um diese Verbesserungen umzusetzen. Beispielsweise möchte ein Forscher wissen, warum fehlerhafter Text ausgegeben wurde, um das Problem zu mildern, während ein Transkriptor Beweise dafür benötigt, warum ASR die Eingabe falsch interpretiert hat, um seine Gültigkeit zu bewerten. Die Einbeziehung von Menschen in den Prozess kann einige der offensichtlichsten Probleme mildern, die auftreten, wenn die künstliche Intelligenz unkontrolliert bleibt. Es kann auch die Zeit verkürzen, die erforderlich ist, damit die künstliche Intelligenz ihre Fehler erkennt, verbessert und sich schließlich in Echtzeit korrigiert.

Die künstliche Intelligenz hat die Fähigkeit, das Leben der Menschen zu verbessern, aber nur, wenn die Menschen sie so aufbauen, dass sie ordnungsgemäß funktioniert. Wir müssen nicht nur diese Systeme, sondern auch die Menschen hinter der Innovation zur Rechenschaft ziehen. Die künstlichen Intelligenzsysteme der Zukunft werden den Grundsätzen entsprechen müssen, die von den Menschen festgelegt werden, und nur dann werden wir ein System haben, dem die Menschen vertrauen. Es ist Zeit, die Grundlagen zu legen und danach zu streben, während es letztendlich noch die Menschen sind, die sich selbst dienen.

Miguel Jetté ist der Leiter der AI-R&D bei Rev, einer Sprache-zu-Text-Transkriptionsplattform, die KI mit qualifizierten Menschen kombiniert. Er leitet das Team, das für die Entwicklung der genauesten Sprache-zu-Text-KI-Plattform der Welt verantwortlich ist. Leidenschaftlich bei der Lösung komplexer Probleme, um Leben zu verbessern, ist er bemüht, den Aufbau von Inklusion und Gleichheit durch Technologie zu erhöhen. In über zwei Jahrzehnten hat er daran gearbeitet, Sprachtechnologien mit Unternehmen wie Nuance Communications und VoiceBox umzusetzen. Er hat einen Master-Abschluss in Mathematik und Statistik von der McGill University in Montreal erworben. Wenn er nicht die Kommunikation durch KI vorantreibt, verbringt er seine Zeit als Fotograf für Felskletterwettbewerbe.