stub Startups, der opretter AI-værktøjer til at opdage e-mailchikane - Unite.AI
Følg os

Kunstig intelligens

Startups, der opretter AI-værktøjer til at opdage e-mailchikane

mm
Opdateret on

Siden Me Too-bevægelsen kom frem i slutningen af ​​2017, er der mere og mere opmærksomhed på tilfælde af seksuel chikane, herunder chikane på arbejdspladsen og chikane via e-mail eller onlinemeddelelser.

Som rapporteret af The Guardian, AI-forskere og ingeniører har skabt værktøjer til at opdage chikane gennem tekstkommunikation, kaldet MeTooBots. MeTooBots bliver implementeret af virksomheder over hele verden for at markere potentielt skadelig og chikanerende kommunikation. Et eksempel på dette er en bot skabt af virksomheden Nex AI, som i øjeblikket bruges af omkring 50 forskellige virksomheder. Botten bruger en algoritme, der undersøger virksomhedens dokumenter, chat og e-mails og sammenligner det med dets træningsdata om mobning eller chikanerende beskeder. Beskeder, der anses for potentielt chikanerende eller skadelige, kan derefter sendes til en HR-chef til gennemgang, selvom Nex AI ikke har afsløret de specifikke termer, som botten leder efter på tværs af kommunikation, den analyserer.

Andre startups har også skabt AI-drevne værktøjer til registrering af chikane. AI-startup'en Spot ejer en chatbot, der er i stand til at gøre det muligt for medarbejdere anonymt at rapportere påstande om seksuel chikane. Botten vil stille spørgsmål og give råd for at indsamle flere detaljer og videreføre en undersøgelse af hændelsen. Spot ønsker at hjælpe HR-teams med at håndtere chikaneproblemer på en følsom måde, samtidig med at anonymiteten bevares.

Ifølge The Guardian forklarede prof. Brian Subirana, MIT og Harvard AI-professor, at forsøg på at bruge AI til at opdage chikane har deres begrænsninger. Chikane kan være meget subtil og svær at opfange, og det viser sig ofte kun som et mønster, der afslører sig selv, når man undersøger ugers data. Bots kan endnu ikke gå ud over opdagelsen af ​​visse triggerord og analysere den bredere interpersonelle eller kulturelle dynamik, der potentielt kan være på spil. På trods af kompleksiteten i at opdage chikane, mener Subirana, at bots kan spille en rolle i bekæmpelsen af ​​online chikane. Subirana kunne se robotterne blive brugt til at træne folk til at opdage chikane, når de ser det, og skabe en database med potentielt problematiske beskeder. Subirana udtalte også, at der kunne være en placebo-effekt, der gør folk mindre tilbøjelige til at chikanere deres kolleger, selv om de har mistanke om, at deres beskeder kan blive undersøgt, selvom de ikke er det.

Mens Subirana mener, at bots har deres potentielle anvendelser til at bekæmpe chikane, argumenterede Subirana også for, at fortrolighed af data og privatliv er et stort problem. Subirana udtaler, at sådan teknologi potentielt kan skabe en atmosfære af mistillid og mistænksomhed, hvis den misbruges. Sam Smethers, administrerende direktør for kvinders rettigheds-NGO Fawcett Society, udtrykte også bekymring over, hvordan bots kunne blive misbrugt. Smethers udtalte:

”Vi vil gerne se nøje på, hvordan teknologien udvikles, hvem der står bag den, og om tilgangen er baseret på en arbejdspladskultur, der søger at forebygge chikane og fremme ligestilling, eller om det i virkeligheden bare er en anden måde. at kontrollere deres medarbejdere."

Metoder til at bruge bots til at opdage chikane og stadig beskytte anonymitet og privatliv skal udarbejdes mellem botudviklere, virksomheder og regulatorer. Nogle mulige metoder til at udnytte forudsigelseskraften fra bots og AI, mens man stadig beskytter privatlivets fred, inkluderer at holde kommunikationen anonym. For eksempel kunne rapporter genereres af botten, der kun inkluderer tilstedeværelsen af ​​potentielt skadeligt sprog og tæller, hvor ofte det muligvis chikanerende sprog optræder. HR kunne så få en idé om, om brugen af ​​giftigt sprog falder efter oplysningsseminarer, eller omvendt kunne afgøre, om de skal være på udkig efter øget chikane.

På trods af uenigheden om passende brug af maskinlæringsalgoritmer og bots til at opdage chikane, synes begge sider at være enige om, at den ultimative beslutning om at gribe ind i tilfælde af chikane bør være af et menneske, og at bots kun bør advare folk om matchede mønstre snarere. end at sige definitivt, at noget var et tilfælde af chikane.

Blogger og programmør med speciale i Maskinelæring , Deep Learning emner. Daniel håber at kunne hjælpe andre med at bruge AI's kraft til socialt gode.