mozzicone Startup che creano strumenti di intelligenza artificiale per rilevare le molestie via e-mail - Unite.AI
Seguici sui social

Intelligenza Artificiale

Startup che creano strumenti di intelligenza artificiale per rilevare le molestie via e-mail

mm
aggiornato on

Da quando il movimento Me Too è diventato famoso alla fine del 2017, viene prestata sempre più attenzione agli episodi di molestie sessuali, comprese le molestie sul posto di lavoro e le molestie tramite e-mail o messaggistica istantanea.

Come riportato da The Guardian, ricercatori e ingegneri di intelligenza artificiale hanno creato strumenti per rilevare le molestie attraverso comunicazioni di testo, soprannominati MeTooBots. I MeTooBot vengono implementati da aziende di tutto il mondo per segnalare comunicazioni potenzialmente dannose e moleste. Ne è un esempio un bot creato dalla società Nex AI, attualmente utilizzato da circa 50 aziende diverse. Il bot utilizza un algoritmo che esamina i documenti aziendali, la chat e le e-mail e li confronta con i suoi dati di addestramento di messaggi di bullismo o molestie. I messaggi ritenuti potenzialmente molesti o dannosi possono quindi essere inviati a un responsabile delle risorse umane per la revisione, sebbene Nex AI non abbia rivelato i termini specifici che il bot cerca nelle comunicazioni che analizza.

Altre startup hanno anche creato strumenti di rilevamento delle molestie basati sull'intelligenza artificiale. La startup AI Spot possiede un chatbot in grado di consentire ai dipendenti di segnalare in modo anonimo accuse di molestie sessuali. Il bot farà domande e darà consigli per raccogliere maggiori dettagli e approfondire l'indagine sull'incidente. Spot vuole aiutare i team delle risorse umane ad affrontare i problemi di molestie in modo sensibile, garantendo comunque il mantenimento dell'anonimato.

Secondo The Guardian, il Prof. Brian Subirana, MIT e professore di intelligenza artificiale di Harvard, ha spiegato che i tentativi di utilizzare l'intelligenza artificiale per rilevare le molestie hanno i loro limiti. Le molestie possono essere molto sottili e difficili da rilevare, manifestandosi spesso solo come uno schema che si rivela quando si esaminano settimane di dati. Inoltre, i robot non possono ancora andare oltre il rilevamento di determinate parole chiave e analizzare le più ampie dinamiche interpersonali o culturali che potrebbero essere potenzialmente in gioco. Nonostante la complessità del rilevamento delle molestie, Subirana ritiene che i bot possano svolgere un ruolo nella lotta alle molestie online. Subirana ha potuto vedere i bot utilizzati per addestrare le persone a rilevare le molestie quando le vedono, creando un database di messaggi potenzialmente problematici. Subirana ha anche affermato che potrebbe esserci un effetto placebo che rende le persone meno propense a molestare i propri colleghi anche se sospettano che i loro messaggi possano essere esaminati, anche se non lo sono.

Sebbene Subirana creda che i robot abbiano i loro potenziali usi nella lotta alle molestie, Subirana ha anche sostenuto che la riservatezza dei dati e la privacy sono una delle principali preoccupazioni. Subirana afferma che tale tecnologia potrebbe potenzialmente creare un'atmosfera di sfiducia e sospetto se utilizzata in modo improprio. Anche Sam Smethers, amministratore delegato della ONG per i diritti delle donne Fawcett Society, ha espresso preoccupazione per come i robot potrebbero essere utilizzati in modo improprio. Smethers ha dichiarato:

"Vorremmo esaminare attentamente come viene sviluppata la tecnologia, chi c'è dietro e se l'approccio adottato è influenzato da una cultura del posto di lavoro che cerca di prevenire le molestie e promuovere l'uguaglianza, o se in realtà è solo un altro modo controllare i propri dipendenti”.

I metodi di utilizzo dei bot per rilevare le molestie e proteggere comunque l'anonimato e la privacy dovranno essere elaborati tra gli sviluppatori di bot, le aziende e le autorità di regolamentazione. Alcuni possibili metodi per utilizzare il potere predittivo dei robot e dell'intelligenza artificiale pur salvaguardando la privacy includono il mantenimento dell'anonimato delle comunicazioni. Ad esempio, il bot potrebbe generare report che includono solo la presenza di un linguaggio potenzialmente dannoso e conta la frequenza con cui appare il linguaggio potenzialmente molesto. Le risorse umane potrebbero quindi farsi un'idea se l'uso di un linguaggio tossico sta diminuendo in seguito a seminari di sensibilizzazione o, al contrario, potrebbero determinare se dovrebbero essere alla ricerca di maggiori molestie.

Nonostante il disaccordo sugli usi appropriati degli algoritmi di apprendimento automatico e dei robot nel rilevamento delle molestie, entrambe le parti sembrano concordare sul fatto che la decisione finale di intervenire in caso di molestie dovrebbe spettare a un essere umano e che i robot dovrebbero avvisare le persone solo in caso di modelli corrispondenti piuttosto che piuttosto che affermare in modo definitivo che qualcosa costituiva un caso di molestia.

Blogger e programmatore con specialità in machine Learning ed Deep Learning temi. Daniel spera di aiutare gli altri a usare il potere dell'intelligenza artificiale per il bene sociale.