Connect with us

Tekoäly

Startups luovat AI-työkaluja sähköpostikiusaamisen havaitsemiseksi

mm

Siitä lähtien, kun Me Too -liike tuli tunnetuksi loppuvuonna 2017, on yhä enemmän huomiota kiinnitetty seksuaalisen ahdistelun tapauksiin, mukaan lukien työpaikan ahdistelu ja ahdistelu sähköpostin tai välittömän viestinnän kautta.

The Guardianin mukaan AI-tutkijat ja insinöörit ovat luoneet työkaluja ahdistelun havaitsemiseksi tekstiviestinnässä, jotka on kutsuttu MeTooBoteiksi. MeTooBotteja käytetään yhtiöissä ympäri maailmaa mahdollisesti haitallisten ja ahdistavien viestien merkintään. Yksi esimerkki tästä on Nex AI -yhtiön luoma botti, jota noin 50 eri yhtiötä käyttää. Botti käyttää algoritmia, joka tarkastelee yhtiön asiakirjoja, chat- ja sähköpostiviestejä ja vertaa niitä koulutusaineistoon, joka sisältää ahdisteluviestejä. Viestit, jotka voidaan pitää mahdollisesti ahdistavina tai haitallisina, voidaan lähettää henkilöstöjohtajalle tarkastettavaksi, vaikka Nex AI ei ole paljastanut tarkalleen, mitä termejä botti etsii viestinnässä, jonka se analysoi.

Muita startup-yrityksiä on myös luonut AI-pohjaisia ahdistelun havaitsemistyökaluja. AI-startup Spot omistaa chatbottin, joka mahdollistaa työntekijöiden anonyymin ilmoittamisen seksuaalisen ahdistelun epäilyistä. Botti kysyy kysymyksiä ja antaa neuvoja kerätäkseen lisätietoja ja edistääkseen tapahtuman tutkintaa. Spot haluaa auttaa henkilöstötiimejä käsittelemään ahdistelukysymyksiä herkkästi, samalla varmisteten anonyymien tietojen säilyttämisen.

The Guardianin mukaan prof. Brian Subirana, MIT:n ja Harvardin AI-professori, selitti, että yritykset käyttää AI:ta ahdistelun havaitsemiseksi ovat rajoittuneita. Ahdistelu voi olla hyvin häikäisevää ja vaikeaa havaita, usein ilmenevänsä vain kuvioiden muodossa, jotka paljastuvat vain viikoittaisen aineiston tarkastellessa. Botit eivät myöskään voi vielä tarkastella laajempaa vuorovaikutuksellista tai kulttuurista dynamiikkaa, joka voi olla mukana. Ahdistelun havaitsemisen monimutkaisuudesta huolimatta Subirana uskoo, että botit voivat olla osana ahdistelun torjumista. Subirana näkee botit mahdollisina työkaluina, joita voidaan käyttää kouluttamaan ihmisiä ahdistelun tunnistamiseen, luomalla tietokannan mahdollisesti ongelmallisista viesteistä. Subirana totesi myös, että saattaa olla placebo-vaikutus, joka tekee ihmisistä vähemmän todennäköisiä ahdistelemaan kollegoitaan, vaikka he epäilisivät viestien tarkastelua, vaikka niitä ei tarkasteltaisikaan.

Vaikka Subirana uskookin, että botit ovat potentiaalisesti hyödyllisiä ahdistelun torjunnassa, hän myös argumentoi, että tietosuojan ja yksityisyyden suojaaminen on suuri huolenaihe. Subirana toteaa, että tällainen teknologia voi luoda epäluottamisen ja epäilyksen ilmapiirin, jos sitä käytetään väärin. Sam Smethers, naisten oikeuksien NGO Fawcett Societyn toimitusjohtaja, myös ilmaisi huolensa siitä, miten botit voivat olla väärinkäytössä. Smethers totesi:

“Haluisimme tarkastella tarkkaan, miten teknologiaa kehitetään, kuka sen takana on ja onko lähestymistapa perusteltu työpaikkakulttuurissa, joka pyrkii estämään ahdistelua ja edistämään tasa-arvoa, vai onko se vain toinen tapa valvoa työntekijöitään.”

Menetelmiä botien käytölle ahdistelun havaitsemiseksi ja samalla suojelemalla anonyymia ja yksityisyyttä on työstettävä botien kehittäjien, yhtiöiden ja sääntelijöiden välillä. Jotkut mahdolliset menetelmät botien ennakkoanalytiikan ja AI:n käytölle yksityisyyden suojaamiseksi ovat esimerkiksi viestinten anonyymien raporttien luominen. Esimerkiksi botin luomat raportit voivat sisältää ainoastaan mahdollisesti haitallisen kielen läsnäolon ja sen määrän, kuinka usein mahdollisesti ahdistava kieli esiintyy. Henkilöstö voisi saada käsityksen siitä, onko myrkyllisen kielen käyttö vähentynyt tietoisuuskampanjoiden jälkeen, tai voivat päättää, onko syytä olla valppaampia ahdistelun lisääntymisen suhteen.

Vaikka on erilaisia mielipiteitä siitä, miten machine learning -algoritmeja ja botteja tulisi käyttää ahdistelun havaitsemiseen, molemmat osapuolet näyttävät olevan samaa mieltä siitä, että lopullinen päätös ahdistelun torjumiseksi tulisi olla ihmisen tehtävä, ja että botit tulisi ainoastaan hälyttää ihmisiä havaitsemistaan kuvioiden perusteella eikä antaa lopullista tuomiota siitä, onko jokin asia ahdistelun tapaus.

Blogger ja ohjelmoija, jolla on erityisalat Machine Learning ja Deep Learning -aiheissa. Daniel toivoo pystyvänsä auttamaan muita käyttämään tekoälyn voimaa sosiaaliseen hyvään.