Connect with us

Forskere Begynner Å Trene Kunstig Intelligens For Å Bekjempe Hate Tale Online

Kunstig intelligens

Forskere Begynner Å Trene Kunstig Intelligens For Å Bekjempe Hate Tale Online

mm

Falske nyheter og hate tale online blir ikke bare et daglig, men et minutt-for-minutt problem online. IkigaiLab rapporterer at Facebook og Twitter nylig måtte stenge over 1,5 milliarder og 70 millioner brukere henholdsvis for å forsøke å begrense spredningen av falske nyheter og hate tale verden over.

Likevel krever en slik oppgave i øyeblikket enormt menneskelig arbeid og nesten konstant arbeidstid for bare å få et glimt av hate talens isfjell. For å løse problemet, begynner forskere i tallrike laboratorier å trene kunstig intelligens (AI) for å hjelpe med denne enorme oppgaven.

Ikigai nevner Rosetta systemet som Facebook bruker for å forstå autentisiteten av nyheter, bilder eller annen innhold som lastes opp på det sosiale mediet. Som forklart, gjør Rosetta en skanning av “ord, bilde, språk, font, dato for innlegget blant andre variabler og prøver å se om informasjonen som presenteres er ekte eller ikke.” Etter at systemet har samlet inn informasjonen og med tanke på at AI ennå ikke er fullstendig “dyktig til å forstå antydninger, referanser, glimt og konteksten hvor innholdet ble postet,” tar menneskelige moderatorer over og guider AI-systemet for å oppdage hate tale og falske nyheter.

For å prøve å videreutvikle evnen til AI-systemene til å kunne dekke alle mulige nyanser som kjennetegner hate tale, tok et team av forskere ved UC Santa Barbara og Intel, som TheNextWeb (TNW) rapporterer, “tusenvis av samtaler fra de skumleste samfunnene på Reddit og Gab og brukte dem til å utvikle og trene AI til å bekjempe hate tale.”

Ifølge deres rapport, for å gjøre dette, skapte den felles gruppen av forskere en spesifikk datasett   med “tusenvis av samtaler som er spesielt kurert for å sikre at de ville være fullstendig fylt med hate tale.” De brukte også en liste over grupper på Reddit som hovedsakelig kjennetegnes av bruk av hate tale, sammenstilt av Justin Caffier of Vox.

Forskerne endte med å samle inn “mer enn 22 000 kommentarer fra Reddit og over 33 000 fra Gab.” De oppdaget at de to nettstedene viser lignende populære hate nøkkelord, men distribusjonene er svært forskjellige.

De noterte at på grunn av disse forskjellene er det svært vanskelig for sosiale medier generelt å gripe inn i sanntid siden strømmen av hate tale er så høy at det ville kreve talløse mennesker å følge det.

For å løse problemet, begynte forskningsteamet å trene AI til å gripe inn. Deres opprinnelige database ble sendt til Amazon Turk-arbeidere for å bli merket. Etter å ha identifisert enkelttilfeller av hate tale, kom arbeiderne med fraser som AI ville bli brukt “til å avskrekke brukere fra å poste lignende hate tale i fremtiden.”

Basert på dette, “kjørte teamet denne datasetten og dens database av inngrep gjennom ulike maskinlærings- og naturligspråklig prosesseringssystemer og skapte en slags prototype for en online hate tale inngrep AI.”

Resultatene som ble produsert var utmerkede, men siden utviklingen fortsatt er på et tidlig stadium, er systemet ikke klar til å bli aktivt brukt. Som det forklart, “systemet bør i teorien kunne oppdage hate tale og umiddelbart sende en melding til posteren og la dem vite hvorfor de ikke bør poste ting som åpenbart representerer hate tale. Dette avhenger av mer enn bare nøkkelordgjenkjenning – for at AI skal fungere, må den få konteksten riktig.”

Tidligere diplomat og oversetter for FN, nå frilans journalist/forfatter/forsker, med fokus på moderne teknologi, kunstig intelligens og moderne kultur.