taló Startups que creen eines d'IA per detectar l'assetjament per correu electrònic - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència Artificial

Startups que creen eines d'IA per detectar l'assetjament per correu electrònic

mm
actualitzat on

Des que el moviment Me Too va cobrar protagonisme a finals de 2017, es presta cada cop més atenció als incidents d'assetjament sexual, inclòs l'assetjament laboral i l'assetjament per correu electrònic o missatgeria instantània.

Segons informa The Guardian, investigadors i enginyers d'IA han estat creant eines per detectar l'assetjament mitjançant comunicacions de text, batejades com MeTooBots. Empreses de tot el món estan implementant MeTooBots per marcar comunicacions potencialment perjudicials i assetjadores. Un exemple d'això és un bot creat per l'empresa Nex AI, que actualment està sent utilitzat per unes 50 empreses diferents. El bot utilitza un algorisme que examina els documents de l'empresa, el xat i els correus electrònics i els compara amb les seves dades d'entrenament de missatges d'assetjament escolar o assetjament. Els missatges considerats potencialment assetjadors o perjudicials es poden enviar a un gestor de recursos humans perquè els revisi, tot i que Nex AI no ha revelat els termes específics que busca el bot a través de les comunicacions que analitza.

Altres startups també han creat eines de detecció d'assetjament basades en IA. La startup d'IA Spot té un bot de xat capaç de permetre als empleats denunciar de manera anònima denúncies d'assetjament sexual. El bot farà preguntes i donarà consells per recollir més detalls i investigar l'incident. Spot vol ajudar els equips de recursos humans a tractar els problemes d'assetjament d'una manera sensible i alhora assegurant que es preserva l'anonimat.

Segons The Guardian, el professor Brian Subirana, professor d'IA del MIT i de Harvard, va explicar que els intents d'utilitzar la IA per detectar l'assetjament tenen les seves limitacions. L'assetjament pot ser molt subtil i difícil de detectar, i sovint es manifesta només com un patró que es revela quan s'examinen setmanes de dades. Els robots tampoc poden, de moment, anar més enllà de la detecció de determinades paraules desencadenants i analitzar les dinàmiques interpersonals o culturals més àmplies que podrien estar en joc. Malgrat les complexitats de detectar l'assetjament, Subirana creu que els robots podrien jugar un paper en la lluita contra l'assetjament en línia. Subirana podria veure que els robots s'utilitzen per entrenar persones per detectar l'assetjament quan el veuen, creant una base de dades de missatges potencialment problemàtics. Subirana també va afirmar que podria haver-hi un efecte placebo que fa que les persones siguin menys propenses a assetjar els seus col·legues fins i tot si sospiten que els seus missatges poden estar sent controlats, encara que no ho siguin.

Tot i que Subirana creu que els robots tenen els seus usos potencials per combatre l'assetjament, Subirana també va argumentar que la confidencialitat de les dades i la privadesa és una preocupació important. Subirana afirma que aquesta tecnologia podria crear un ambient de desconfiança i sospita si s'utilitza malament. Sam Smethers, el director executiu de l'ONG de drets de les dones Fawcett Society, també va expressar la seva preocupació per com es podrien fer un ús indegut dels robots. Smethers va dir:

"Ens agradaria mirar detingudament com s'està desenvolupant la tecnologia, qui hi ha al darrere i si l'enfocament adoptat es basa en una cultura laboral que pretén prevenir l'assetjament i promoure la igualtat, o si de fet és només una altra manera. per controlar els seus empleats".

Els mètodes per utilitzar bots per detectar l'assetjament i encara protegir l'anonimat i la privadesa s'hauran de treballar entre els desenvolupadors de bots, les empreses i els reguladors. Alguns mètodes possibles per utilitzar el poder predictiu dels robots i la intel·ligència artificial mentre es protegeixen la privadesa inclouen mantenir les comunicacions anònimes. Per exemple, el bot podria generar informes que només incloguin la presència d'un llenguatge potencialment perjudicial i un recompte de la freqüència amb què apareix el llenguatge possiblement assetjador. Aleshores, els recursos humans podrien fer-se una idea si els usos del llenguatge tòxic estan disminuint després dels seminaris de conscienciació o, per contra, podrien determinar si haurien d'estar pendents d'un augment de l'assetjament.

Malgrat el desacord sobre els usos adequats dels algorismes d'aprenentatge automàtic i els robots per detectar l'assetjament, ambdues parts semblen estar d'acord que la decisió final d'intervenir en casos d'assetjament hauria de ser per part d'un humà i que els robots només haurien d'avisar la gent sobre patrons coincidents en lloc de que dir definitivament que alguna cosa era una instància d'assetjament.