tynkä Aloitusyritykset, jotka luovat tekoälytyökaluja sähköpostihäirinnän havaitsemiseksi - Unite.AI
Liity verkostomme!

Tekoäly

Aloitusyritykset luovat tekoälytyökaluja sähköpostihäirinnän havaitsemiseksi

mm
Päivitetty on

Sen jälkeen kun Me Too -liike nousi julkisuuteen vuoden 2017 lopulla, seksuaaliseen häirintään kiinnitetään yhä enemmän huomiota, mukaan lukien työpaikkahäirintä sekä sähköpostin tai pikaviestien kautta tapahtuva häirintä.

Kuten The Guardian ilmoittiTekoälytutkijat ja -insinöörit ovat luoneet työkaluja tekstiviestinnän kautta tapahtuvan häirinnän havaitsemiseksi, nimeltään MeTooBots. Yritykset ympäri maailmaa ottavat käyttöön MeTooBotteja, jotta ne voivat ilmoittaa mahdollisesti haitallisesta ja häiritsevästä viestinnästä. Yksi esimerkki tästä on Nex AI -yrityksen luoma botti, jota käyttää tällä hetkellä noin 50 eri yritystä. Botti käyttää algoritmia, joka tutkii yrityksen asiakirjoja, chatteja ja sähköposteja ja vertaa niitä kiusaamis- tai häirintäviestien koulutustietoihinsa. Mahdollisesti häiritseviksi tai haitallisiksi katsotut viestit voidaan sitten lähettää henkilöstöpäällikölle tarkistettavaksi, vaikka Nex AI ei ole paljastanut tarkkoja termejä, joita robotti etsii analysoimissaan viestinnöissä.

Muut startupit ovat myös luoneet tekoälyllä toimivia häirinnän havaitsemistyökaluja. Tekoälystartup Spot omistaa chatbotin, jonka avulla työntekijät voivat ilmoittaa anonyymisti seksuaalisesta häirinnästä. Botti esittää kysymyksiä ja antaa neuvoja saadakseen lisätietoja ja jatkaakseen tapauksen tutkintaa. Spot haluaa auttaa HR-tiimejä käsittelemään häirintäongelmia herkästi ja samalla varmistamaan anonymiteetin säilymisen.

The Guardianin mukaan professori Brian Subirana, MIT:n ja Harvardin tekoälyn professori, selitti, että yrityksillä käyttää tekoälyä häirinnän havaitsemiseen on rajoituksensa. Häirintä voi olla hyvin hienovaraista ja vaikeasti havaittavissa, ja se ilmenee usein vain kuviona, joka paljastaa itsensä tarkasteltaessa viikkojen tietoja. Botit eivät myöskään voi toistaiseksi ylittää tiettyjen laukaisevien sanojen havaitsemista ja analysoida laajempaa ihmisten välistä tai kulttuurista dynamiikkaa, joka saattaa olla pelissä. Huolimatta häirinnän havaitsemisen monimutkaisuudesta, Subirana uskoo, että boteilla voi olla rooli verkossa tapahtuvan häirinnän torjunnassa. Subirana saattoi nähdä, kuinka botteja käytetään kouluttamaan ihmisiä havaitsemaan häirintää, kun he näkevät sen, luoden tietokannan mahdollisesti ongelmallisista viesteistä. Subirana totesi myös, että saattaa olla lumevaikutus, joka saa ihmiset epätodennäköisemmin häiritsemään kollegoitaan, vaikka he epäilevätkin, että heidän viestejään tutkitaan, vaikka he eivät olisikaan.

Vaikka Subirana uskoo, että boteilla on potentiaalisia käyttötarkoituksia häirinnän torjunnassa, Subirana väitti myös, että tietojen luottamuksellisuus ja yksityisyys ovat suuri huolenaihe. Subiranan mukaan tällainen tekniikka voi mahdollisesti luoda epäluottamuksen ja epäluuloisen ilmapiirin, jos sitä käytetään väärin. Sam Smethers, naisten oikeuksia puolustavan kansalaisjärjestön Fawcett Societyn pääjohtaja, ilmaisi myös huolensa siitä, miten botteja voidaan käyttää väärin. Smethers sanoi:

”Haluaisimme tarkastella tarkasti, miten teknologiaa kehitetään, kuka sen takana on ja perustuuko lähestymistapaan häirintää ehkäisevä ja tasa-arvoa edistävä työpaikkakulttuuri vai onko se itse asiassa vain yksi tapa valvoa työntekijöitään."

Bottien kehittäjien, yritysten ja sääntelyviranomaisten on sovittava menetelmistä, joilla botteja käytetään häirinnän havaitsemiseen ja anonymiteetin ja yksityisyyden suojaamiseen. Eräitä mahdollisia tapoja hyödyntää bottien ja tekoälyn ennustusvoimaa samalla kun suojataan yksityisyyttä, kuuluu viestinnän pitäminen nimettömänä. Esimerkiksi robotti voi luoda raportteja, jotka sisältävät vain mahdollisesti haitallisen kielen esiintymisen ja laskevat, kuinka usein mahdollisesti häiritsevää kieltä esiintyy. HR voisi sitten saada käsityksen siitä, onko myrkyllisen kielen käyttö vähenemässä tietoisuusseminaarien jälkeen, tai päinvastoin, voisiko heidän olla varovainen häirinnän lisääntymisen vuoksi.

Huolimatta erimielisyydestä koneoppimisalgoritmien ja robottien tarkoituksenmukaisesta käytöstä häirinnän havaitsemisessa, molemmat osapuolet näyttävät olevan yhtä mieltä siitä, että lopullisen päätöksen puuttua häirintätapauksiin pitäisi tehdä ihminen ja että robottien tulisi aina vain varoittaa ihmisiä vastaavista malleista. kuin sanoa lopullisesti, että jokin oli häirintä.

Bloggaaja ja ohjelmoija erikoisaloilla Koneen oppiminen ja Deep Learning aiheita. Daniel toivoo voivansa auttaa muita käyttämään tekoälyn voimaa yhteiskunnalliseen hyvään.