Vernetzen Sie sich mit uns

KĂŒnstliche Intelligenz

Startups entwickeln KI-Tools zur Erkennung von E-Mail-BelÀstigung

mm

Seit die Me Too-Bewegung Ende 2017 an Bedeutung gewann, wird VorfĂ€llen sexueller BelĂ€stigung, einschließlich BelĂ€stigung am Arbeitsplatz und BelĂ€stigung per E-Mail oder Instant Messaging, immer mehr Aufmerksamkeit geschenkt.

Wie von The Guardian berichtet, KI-Forscher und -Ingenieure haben Tools entwickelt, um BelĂ€stigungen durch Textkommunikation zu erkennen, sogenannte MeTooBots. MeTooBots werden von Unternehmen auf der ganzen Welt eingesetzt, um potenziell schĂ€dliche und belĂ€stigende Kommunikation zu kennzeichnen. Ein Beispiel hierfĂŒr ist ein Bot der Firma Nex AI, der derzeit bei rund 50 verschiedenen Unternehmen im Einsatz ist. Der Bot nutzt einen Algorithmus, der Unternehmensdokumente, Chats und E-Mails untersucht und diese mit seinen Trainingsdaten zu Mobbing- oder BelĂ€stigungsnachrichten vergleicht. Nachrichten, die als potenziell belĂ€stigend oder schĂ€dlich gelten, können dann zur ÜberprĂŒfung an einen Personalmanager gesendet werden, obwohl Nex AI die spezifischen Begriffe, nach denen der Bot in den von ihm analysierten Kommunikationen sucht, nicht preisgegeben hat.

Andere Startups haben ebenfalls KI-gestĂŒtzte Tools zur BelĂ€stigungserkennung entwickelt. Das KI-Startup Spot besitzt einen Chatbot, der es Mitarbeitern ermöglicht, VorwĂŒrfe sexueller BelĂ€stigung anonym zu melden. Der Bot wird Fragen stellen und RatschlĂ€ge geben, um weitere Details zu sammeln und die Untersuchung des Vorfalls voranzutreiben. Spot möchte HR-Teams dabei helfen, sensibel mit BelĂ€stigungsproblemen umzugehen und gleichzeitig die Wahrung der AnonymitĂ€t sicherzustellen.

Laut The Guardian erklĂ€rte Prof. Brian Subirana, KI-Professor am MIT und Harvard, dass Versuche, KI zur Erkennung von BelĂ€stigungen einzusetzen, ihre Grenzen haben. BelĂ€stigung kann sehr subtil und schwer zu erkennen sein und manifestiert sich hĂ€ufig nur als Muster, das bei der Untersuchung wochenlanger Daten zum Vorschein kommt. Bots können bislang auch nicht ĂŒber die Erkennung bestimmter Triggerwörter hinausgehen und die breitere zwischenmenschliche oder kulturelle Dynamik analysieren, die möglicherweise eine Rolle spielt. Trotz der KomplexitĂ€t der Erkennung von BelĂ€stigungen glaubt Subirana, dass Bots eine Rolle bei der BekĂ€mpfung von Online-BelĂ€stigungen spielen könnten. Subirana konnte sehen, dass die Bots dazu verwendet werden, Menschen darin zu schulen, BelĂ€stigungen zu erkennen, wenn sie sie sehen, und so eine Datenbank mit potenziell problematischen Nachrichten zu erstellen. Subirana gab außerdem an, dass es einen Placebo-Effekt geben könnte, der die Wahrscheinlichkeit verringert, dass Menschen ihre Kollegen belĂ€stigen, selbst wenn sie vermuten, dass ihre Nachrichten ĂŒberprĂŒft werden, selbst wenn dies nicht der Fall ist.

WĂ€hrend Subirana glaubt, dass Bots potenzielle Einsatzmöglichkeiten bei der BekĂ€mpfung von BelĂ€stigungen haben, argumentierte Subirana auch, dass die Vertraulichkeit von Daten und die PrivatsphĂ€re ein großes Anliegen seien. Subirana gibt an, dass eine solche Technologie bei Missbrauch möglicherweise eine AtmosphĂ€re des Misstrauens und des Misstrauens schaffen könnte. Sam Smethers, GeschĂ€ftsfĂŒhrerin der Frauenrechts-NGO Fawcett Society, Ă€ußerte sich ebenfalls besorgt darĂŒber, wie die Bots missbraucht werden könnten. Smethers erklĂ€rte:

„Wir möchten sorgfĂ€ltig prĂŒfen, wie die Technologie entwickelt wird, wer dahinter steckt und ob der gewĂ€hlte Ansatz von einer Arbeitsplatzkultur geprĂ€gt ist, die darauf abzielt, BelĂ€stigung zu verhindern und Gleichstellung zu fördern, oder ob es sich tatsĂ€chlich nur um einen anderen Weg handelt.“ ihre Mitarbeiter zu kontrollieren.“

Methoden zum Einsatz von Bots zur Erkennung von BelĂ€stigungen und zum Schutz der AnonymitĂ€t und PrivatsphĂ€re mĂŒssen zwischen Bot-Entwicklern, Unternehmen und Regulierungsbehörden ausgearbeitet werden. Zu den möglichen Methoden, die Vorhersagekraft von Bots und KI zu nutzen und gleichzeitig die PrivatsphĂ€re zu schĂŒtzen, gehört die Anonymisierung der Kommunikation. Beispielsweise könnten vom Bot Berichte erstellt werden, die nur das Vorhandensein potenziell schĂ€dlicher Sprache umfassen und zĂ€hlen, wie oft die möglicherweise belĂ€stigende Sprache vorkommt. Die Personalabteilung könnte dann nach Sensibilisierungsseminaren eine Vorstellung davon bekommen, ob die Verwendung giftiger Sprache zurĂŒckgeht, oder umgekehrt entscheiden, ob sie nach verstĂ€rkter BelĂ€stigung Ausschau halten sollte.

Trotz der Meinungsverschiedenheiten ĂŒber den angemessenen Einsatz von maschinellen Lernalgorithmen und Bots zur Erkennung von BelĂ€stigungen scheinen sich beide Seiten darin einig zu sein, dass die letztendliche Entscheidung, bei BelĂ€stigungen einzugreifen, von einem Menschen getroffen werden sollte und dass Bots die Menschen immer nur auf ĂŒbereinstimmende Muster aufmerksam machen sollten als definitiv zu sagen, dass es sich um eine BelĂ€stigung handelte.

Blogger und Programmierer mit Spezialisierung auf Maschinelles lernen mit einem Tiefes Lernen Themen. Daniel hofft, anderen dabei zu helfen, die Macht der KI fĂŒr das soziale Wohl zu nutzen.