Connect with us

Inteligență artificială

Startups care creează unelte AI pentru a detecta hărțuirea prin e-mail

mm

De când mișcarea Me Too a devenit proeminentă la sfârșitul anului 2017, se acordă din ce în ce mai multă atenție incidentelor de hărțuire sexuală, inclusiv hărțuirea la locul de muncă și hărțuirea prin e-mail sau mesaje instantanee.

După cum a raportat The Guardian, cercetătorii și inginerii AI au creat unelte pentru a detecta hărțuirea prin comunicări text, denumite MeTooBots. MeTooBots sunt implementate de companii din întreaga lume pentru a semnala comunicări potențial dăunătoare și hărțuitoare. Un exemplu în acest sens este un robot creat de compania Nex AI, care este utilizat în prezent de aproximativ 50 de companii diferite. Robotul utilizează un algoritm care examinează documentele companiei, chat-ul și e-mailurile și le compară cu datele de antrenament ale mesajelor de hărțuire sau bullying. Mesajele considerate potențial hărțuitoare sau dăunătoare pot fi trimise apoi unui manager de resurse umane pentru revizuire, deși Nex AI nu a dezvăluit termenii specifici pe care robotul îi caută în comunicările pe care le analizează.

Alte startup-uri au creat, de asemenea, unelte de detectare a hărțuirii bazate pe AI. Startup-ul Spot deține un chatbot care permite angajaților să raporteze anonim alegații de hărțuire sexuală. Chatbot-ul va pune întrebări și va oferi sfaturi pentru a colecta mai multe detalii și a continua o anchetă cu privire la incident. Spot dorește să ajute echipele de resurse umane să facă față problemelor de hărțuire într-un mod sensibil, asigurând în același timp anonimitatea.

Conform The Guardian, prof. Brian Subirana, profesor de AI la MIT și Harvard, a explicat că încercările de a utiliza AI pentru a detecta hărțuirea au limite. Hărțuirea poate fi foarte subtilă și greu de detectat, manifestându-se adesea doar ca un model care se revelează atunci când se examinează săptămâni de date. Roboții nu pot, încă, să meargă dincolo de detectarea anumitor cuvinte declanșatoare și să analizeze dinamica interpersonală sau culturală mai largă care ar putea fi în joc. În ciuda complexității detectării hărțuirii, Subirana crede că roboții ar putea juca un rol în combaterea hărțuirii online. Subirana consideră că roboții ar putea fi utilizați pentru a antrena oamenii să detecteze hărțuirea atunci când o văd, creând o bază de date cu mesaje potențial problematice. Subirana a afirmat, de asemenea, că ar putea exista un efect placebo care face ca oamenii să fie mai puțin predispuși să hărțuiască colegii lor, chiar dacă suspectează că mesajele lor ar putea fi examinate, chiar dacă nu sunt.

Deși Subirana crede că roboții au potențialul de a fi utilizați în combaterea hărțuirii, Subirana a argumentat, de asemenea, că confidențialitatea datelor și a vieții private este o problemă majoră. Subirana afirmă că o astfel de tehnologie ar putea crea, în mod potențial, o atmosferă de neîncredere și suspiciune, dacă este utilizată în mod greșit. Sam Smethers, directorul general al organizației pentru drepturile femeilor Fawcett Society, a exprimat, de asemenea, îngrijorări cu privire la modul în care roboții ar putea fi utilizați în mod greșit. Smethers a declarat:

“Am dori să examinăm cu atenție modul în care tehnologia este dezvoltată, cine se află în spatele ei și dacă abordarea adoptată este informată de o cultură a locului de muncă care își propune să prevină hărțuirea și să promoveze egalitatea, sau dacă este, de fapt, doar o altă modalitate de a controla angajații.”

Metodele de utilizare a roboților pentru a detecta hărțuirea și, în același timp, a proteja anonimitatea și confidențialitatea vor trebui să fie stabilite între dezvoltatorii de roboți, companii și reglementatori. Unele metode posibile de utilizare a puterii predictive a roboților și a inteligenței artificiale, în timp ce se protejează, în același timp, confidențialitatea, includ menținerea comunicărilor anonime. De exemplu, rapoartele generate de robot ar putea include doar prezența unui limbaj potențial dăunător și numărul de ori când limbajul posibil hărțuitor apare. Resursele umane ar putea obține, astfel, o idee dacă utilizarea limbajului toxic scade după seminariile de conștientizare sau, dimpotrivă, ar putea determina dacă ar trebui să fie în alertă pentru o creștere a hărțuirii.

În ciuda dezacordului cu privire la utilizarea algoritmilor de învățare a mașinilor și a roboților în detectarea hărțuirii, ambele părți par să fie de acord că decizia finală de a interveni în cazurile de hărțuire ar trebui să fie luată de un om, și că roboții ar trebui să alerteze oamenii doar cu privire la modelele corespunzătoare, și nu să spună în mod definitiv că ceva a fost un caz de hărțuire.

Blogger și programator cu specializări în Machine Learning și Deep Learning subiecte. Daniel speră să ajute pe alții să folosească puterea inteligenței artificiale pentru binele social.