Kunstig intelligens
Forskere Begynder At Træne Kunstig Intelligens Til At Bekæmpe Hadefuldt Sprog Online

Falske nyheder og hadefuldt sprog online er blevet ikke et dagligt, men et minut-for-minut problem online. IkigaiLab rapporterer, at Facebook og Twitter kun for nylig havde lukket mere end 1,5 milliarder og 70 millioner konti henholdsvis for at forsøge at mindske spredningen af falske nyheder og hadefuldt sprog verden over.
Alligevel kræver en sådan opgave på nuværende tidspunkt enormt menneskeligt arbejdskraft og næsten konstant arbejdstid for bare at tage et tip af hadefuldt sprog-isbjerget. For at løse problemet er forskere på talrige laboratorier begyndt at træne kunstig intelligens (AI) til at hjælpe med denne kæmpeopgave.
Ikigai citerer Rosetta-systemet, som Facebook bruger til at forstå ægthed af nyheder, billeder eller anden indhold, der uploades på det sociale medie. Som forklaret, hvad Rosetta gør, er at scan “ord, billede, sprog, font, dato på opslaget blandt andre variabler og forsøger at se, om den præsenterede information er ægte eller ej.” Efter systemet har indsamlet informationen og med det i mente, at AI endnu ikke er fuldt ud “dygtig til at forstå antydninger, referencer, fornærmelser og konteksten, hvori indholdet blev oploadet,” overtager menneskelige moderatore og vejleder AI-systemet til at opdage hadefuldt sprog og falske nyheder.
For at forsøge at yderligere udvikle AI-systemernes evne til at kunne dække alle mulige nuancer, der kendetegner hadefuldt sprog, har et hold af forskere på UC Santa Barbara og Intel, som TheNextWeb (TNW) rapporterer, “taget tusinder af samtaler fra de værste fællesskaber på Reddit og Gab og brugt dem til at udvikle og træne AI til at bekæmpe hadefuldt sprog.”
Ifølge deres rapport, for at gøre dette, skabte den fælles gruppe af forskere en specifik dataset med “tusinder af samtaler, specielt udvalgt til at sikre, at de ville være fulde af hadefuldt sprog.” De brugte også en liste over grupper på Reddit, der er karakteriseret ved brug af hadefuldt sprog, samlet af Justin Caffier fra Vox.
Forskerne endte med at indsamle “mere end 22.000 kommentarer fra Reddit og over 33.000 fra Gab.” De opdagede, at de to sider viser lige populære hadefulde nøgleord, men distributionen er meget forskellig.
De bemærkede, at på grund af disse forskelle er det meget svært for sociale medier generelt at gribe ind i realtid, da strømmen af hadefuldt sprog er så høj, at det ville kræve utallige mennesker at følge det.
For at tage problemet, begyndte forskerholdet at træne AI til at gribe ind. Deres oprindelige database blev sendt til Amazon Turk-arbejdere til at blive mærket. Efter at have identificeret de enkelte tilfælde af hadefuldt sprog, kom arbejderne med fraser, som AI ville blive brugt til “at afholde brugere fra at poste lignende hadefuldt sprog i fremtiden.”
Baseret på dette, “kørte holdet denne dataset og dens database af interventioner gennem forskellige maskinlærings- og naturligsproglige processystemer og skabte en slags prototype for en online hadefuldt sprog-interventions-AI.”
Resultaterne var fremragende, men da udviklingen stadig er i en tidlig fase, er systemet ikke klar endnu til at blive aktivt brugt. Som forklaret, “systemet bør i teorien kunne opdage hadefuldt sprog og straks sende en besked til oploaderen og fortælle dem, hvorfor de ikke bør poste ting, der åbenlyst repræsenterer hadefuldt sprog. Dette afhænger af mere end bare nøgleordsdetektion – for at AI skal fungere, må den få konteksten rigtigt.”










