Vernetzen Sie sich mit uns

Ethik

Ethische Überlegungen bei der Entwicklung von KI zur Emotionserkennung

mm

Künstliche Intelligenz zur Emotionsregulierung ist einer der neuesten technologischen Fortschritte im Bereich des maschinellen Lernens. Obwohl sie großes Potenzial zeigt, werden ethische Probleme ihre Akzeptanz und Langlebigkeit beeinträchtigen. Können KI-Entwickler sie überwinden? 

Was ist KI zur Emotionserkennung? 

Die KI zur Emotionserkennung ist eine Art maschinelles Lernmodell. Sie basiert häufig auf Computer-Vision-Technologie, die Gesichtsausdrücke erfasst und analysiert, um Stimmungen in Bildern und Videos zu entschlüsseln. Sie kann jedoch auch Audioausschnitte verarbeiten, um den Tonfall einer Stimme zu bestimmen, oder geschriebene Texte, um die Stimmung der Sprache einzuschätzen.

Solche Algorithmen stellen einen faszinierenden Fortschritt im Bereich der KI dar, denn bisher waren Modelle nicht in der Lage, menschliche Gefühle zu verstehen. Große Sprachmodelle wie ChatGPT können zwar Stimmungen und Persönlichkeiten überzeugend simulieren, sie können aber nur Wörter logisch aneinanderreihen – sie können nichts fühlen und zeigen keine emotionale Intelligenz. Obwohl ein Emotionserkennungsmodell keine Gefühle haben kann, kann es diese dennoch erkennen und katalogisieren. Diese Entwicklung ist bedeutsam, da sie darauf hindeutet, dass KI bald in der Lage sein könnte, Glück, Trauer oder Wut wirklich zu verstehen und zu demonstrieren. Technologische Sprünge wie diese deuten auf beschleunigten Fortschritt hin.

Anwendungsfälle für die KI-Emotionserkennung

Unternehmen, Pädagogen, Berater und Fachkräfte im Bereich der psychischen Gesundheit sind einige der Gruppen, die KI zur Emotionserkennung nutzen können.

Risikobewertung im Büro

Personalabteilungen können Algorithmen verwenden, um Stimmungsanalysen in E-Mail-Korrespondenz oder In-App-Chats zwischen Teammitgliedern durchzuführen. Alternativ können sie ihren Algorithmus in ihr Überwachungs- oder Computer-Vision-System integrieren. Benutzer können die Stimmung verfolgen, um Kennzahlen wie Fluktuationsrisiko, Burnout-Rate und Mitarbeiterzufriedenheit zu berechnen.

Unterstützung von Kundendienstmitarbeitern

Einzelhändler können interne KI-Kundendienstmitarbeiter für Endbenutzer oder virtuelle Assistenten einsetzen, um Stresssituationen zu lösen. Da ihr Modell die Stimmung erkennen kann, kann es Deeskalationstechniken vorschlagen oder seinen Ton ändern, wenn es merkt, dass ein Kunde wütend wird. Gegenmaßnahmen wie diese können die Kundenzufriedenheit und -bindung verbessern. 

Schülern im Klassenzimmer helfen

Pädagogen können diese KI nutzen, um zu verhindern, dass Fernschüler zurückfallen. Ein Startup hat sein Tool bereits verwendet, um Muskelpunkte im Gesicht der Schüler zu messen und gleichzeitig ihre Geschwindigkeit und Noten zu katalogisieren. Diese Methode ermittelt ihre Stimmung, Motivation, Stärken und Schwächen. Der Gründer des Startups behauptet, sie erzielen 10 % mehr Punkte zu Prüfungen im Einsatz der Software.

Durchführung interner Marktforschung 

Unternehmen können mithilfe eines Emotionserkennungsmodells interne Marktforschung betreiben. Dadurch können sie genau verstehen, wie ihre Zielgruppe auf ihr Produkt, ihre Dienstleistung oder ihr Marketingmaterial reagiert, und erhalten wertvolle datengestützte Erkenntnisse. Dadurch können sie die Markteinführungszeit verkürzen und ihren Umsatz steigern. 

Das Problem bei der Verwendung von KI zur Erkennung von Emotionen

Untersuchungen legen nahe, dass die Genauigkeit in hohem Maße von Trainingsinformationen abhängt. Eine Forschungsgruppe, die versuchte, Gefühle aus Bildern zu entschlüsseln, bewies dieses Konzept anekdotisch, als ihr Modell erreichte eine Genauigkeit von 92.05 % im Datensatz „Japanese Female Facial Expression“ und eine Genauigkeit von 98.13 % im erweiterten Cohn-Kanade-Datensatz.

Obwohl der Unterschied zwischen 92 % und 98 % unbedeutend erscheinen mag, ist er wichtig – diese kleine Diskrepanz könnte erhebliche Auswirkungen haben. Als Referenz: Eine Dataset-Poisoning-Rate so niedrig wie 0.001% hat sich als wirksam erwiesen, wenn es darum geht, Hintertüren in Modellen zu etablieren oder absichtlich Fehlklassifizierungen zu verursachen. Selbst ein Bruchteil eines Prozents ist bedeutsam.

Obwohl die Studien vielversprechend erscheinen – Genauigkeitsraten von über 90 % zeigen Potenzial – führen die Forscher sie in kontrollierten Umgebungen durch. In der realen Welt sind verschwommene Bilder, falsche Gesichtsausdrücke, ungünstige Winkel und subtile Gefühle viel häufiger. Mit anderen Worten: KI ist möglicherweise nicht in der Lage, konstant zu funktionieren.

Der aktuelle Stand der KI zur Emotionserkennung

Bei der algorithmischen Sentimentanalyse wird mithilfe eines Algorithmus ermittelt, ob der Ton eines Textes positiv, neutral oder negativ ist. Diese Technologie ist wohl die Grundlage für moderne Emotionserkennungsmodelle, da sie den Weg für algorithmische Stimmungsbewertungen ebnete. Ähnliche Technologien wie Gesichtserkennungssoftware haben ebenfalls zum Fortschritt beigetragen. 

Heutige Algorithmen können hauptsächlich einfache Stimmungen wie Glück, Trauer, Wut, Angst und Überraschung mit unterschiedlicher Genauigkeit erkennen. Diese Gesichtsausdrücke sind angeboren und universell – das heißt, sie sind natürlich und werden weltweit verstanden. Daher ist es relativ einfach, einer KI beizubringen, sie zu erkennen. 

Darüber hinaus sind grundlegende Gesichtsausdrücke oft übertrieben. Menschen runzeln die Augenbrauen, wenn sie wütend sind, runzeln die Stirn, wenn sie traurig sind, lächeln, wenn sie glücklich sind, und reißen die Augen auf, wenn sie schockiert sind. Diese simplen, dramatischen Blicke sind leicht zu unterscheiden. Komplexere Emotionen sind schwieriger zu erkennen, da sie entweder subtil sind oder grundlegende Gesichtsausdrücke kombinieren.

Da dieser Teilbereich der KI sich noch größtenteils in der Forschung und Entwicklung befindet, ist er noch nicht so weit fortgeschritten, dass er komplexe Gefühle wie Sehnsucht, Scham, Trauer, Eifersucht, Erleichterung oder Verwirrung erfassen kann. Obwohl er wahrscheinlich irgendwann mehr abdecken wird, gibt es keine Garantie, dass er sie alle interpretieren kann.

In Wirklichkeit werden Algorithmen vielleicht nie in der Lage sein, mit Menschen zu konkurrieren. Als Referenz: Während OpenAIs GPT-4-Datensatz beträgt etwa 1 PetabyteEin einziger Kubikmillimeter des menschlichen Gehirns enthält etwa 1.4 Petabyte an Daten. Neurowissenschaftler können trotz jahrzehntelanger Forschung nicht vollständig verstehen, wie das Gehirn Emotionen wahrnimmt. Daher ist der Bau einer hochpräzisen KI möglicherweise unmöglich.

Obwohl es Präzedenzfälle für die Verwendung dieser Technologie zur Emotionserkennung gibt, steckt dieses Feld technisch noch in den Kinderschuhen. Es gibt eine Fülle von Forschungsarbeiten zu diesem Konzept, aber nur wenige Beispiele für den Einsatz in großem Maßstab in der Praxis. Einige Anzeichen deuten darauf hin, dass die verzögerte Einführung auf Bedenken hinsichtlich inkonsistenter Genauigkeit und ethischer Probleme zurückzuführen sein könnte.

Ethische Überlegungen für KI-Entwickler

Einer Umfrage zufolge 67 % der Befragten stimmen zu KI sollte etwas oder viel stärker reguliert werden. Um die Menschen zu beruhigen, sollten Entwickler Voreingenommenheit minimieren, sicherstellen, dass ihre Modelle wie erwartet funktionieren und die Ergebnisse verbessern. Diese Lösungen sind möglich, wenn sie ethischen Überlegungen bei der Entwicklung Priorität einräumen.

1. Einvernehmliche Datenerhebung und -verwendung 

In einer Zeit, in der die Regulierung von KI zunimmt, ist Zustimmung das Wichtigste. Was passiert, wenn Mitarbeiter feststellen, dass ihre Gesichtsausdrücke ohne ihr Wissen katalogisiert werden? Müssen Eltern bildungsbasierte Stimmungsanalysen unterzeichnen oder können Schüler selbst darüber entscheiden?

Entwickler sollten explizit offenlegen, welche Informationen das Modell sammelt, wann es in Betrieb ist, wofür die Analyse verwendet wird und wer auf diese Details zugreifen kann. Darüber hinaus sollten sie Opt-out-Funktionen einschließen, damit Einzelpersonen die Berechtigungen anpassen können. 

2. Anonymisierte Sentimentanalyse-Ergebnisse 

Die Anonymisierung von Daten ist sowohl ein Datenschutzproblem als auch ein Sicherheitsproblem. Entwickler sollten die von ihnen gesammelten Emotionsinformationen anonymisieren, um die betroffenen Personen zu schützen. Zumindest sollten sie ernsthaft in Erwägung ziehen, die Daten im Ruhezustand zu verschlüsseln. 

3. Entscheidungsfindung mit menschlicher Beteiligung

Der einzige Grund, KI zur Bestimmung des emotionalen Zustands einer Person einzusetzen, besteht darin, Entscheidungen zu unterstützen. Unabhängig davon, ob sie im Bereich der psychischen Gesundheit oder im Einzelhandel eingesetzt wird, wird sie Auswirkungen auf die Menschen haben. Entwickler sollten Sicherheitsvorkehrungen treffen, die den Menschen einbeziehen, um unerwartetes Verhalten zu minimieren. 

4. Menschzentriertes Feedback für KI-Ergebnisse

Selbst wenn ein Algorithmus eine Genauigkeit von nahezu 100 % aufweist, erzeugt er dennoch falsche Ergebnisse. Da es nicht ungewöhnlich ist, dass Modelle 50 % oder 70 % erreichen – und dabei sind Voreingenommenheit oder Halluzinationen noch gar nicht berücksichtigt – sollten Entwickler die Implementierung eines Feedbacksystems in Betracht ziehen. 

Menschen sollten in der Lage sein, die Aussagen der KI über ihren emotionalen Zustand zu überprüfen und Einspruch einzulegen, wenn sie glauben, dass diese Aussagen falsch sind. Ein solches System würde zwar Leitplanken und Rechenschaftsmaßnahmen erfordern, würde jedoch negative Auswirkungen durch ungenaue Ergebnisse minimieren. 

Die Folgen der Missachtung ethischer Grundsätze

Ethische Überlegungen sollten für KI-Ingenieure, Entwickler maschinellen Lernens und Geschäftsinhaber oberste Priorität haben, da sie sie betreffen. Angesichts der zunehmend unsicheren öffentlichen Meinung und der schärferen Regulierungen können die Folgen einer Missachtung ethischer Grundsätze erheblich sein.

Zac Amos ist ein Tech-Autor, der sich auf künstliche Intelligenz konzentriert. Er ist außerdem Features Editor bei ReHack, wo Sie mehr über seine Arbeit lesen können.