Connect with us

Artificiell intelligens

Forskare börjar träna artificiell intelligens för att bekämpa hatretor online

mm

Falska nyheter och hatretor online blir inte bara ett dagligt, utan ett minut-for-minut-problem online. IkigaiLab rapporterar att Facebook och Twitter nyligen tvingades stänga mer än 1,5 miljarder och 70 miljoner konton för att försöka begränsa spridningen av falska nyheter och hatretor runt om i världen.

Ändå kräver en sådan uppgift för närvarande enorm mänsklig kraft och nästan konstanta arbetsTIMMAR för att bara ta en liten del av hatretorns isberg. För att lösa problemet börjar forskare på många laboratorier att träna artificiell intelligens (AI) för att hjälpa till med denna enorma uppgift.

Ikigai citerar Rosetta-systemet som Facebook använder för att förstå äktheten i nyheter, bilder eller annan innehåll som laddas upp på det sociala mediet. Som förklaras, vad Rosetta gör är att skanna “ord, bild, språk, teckensnitt, datum för inlägget bland andra variabler och försöka se om den information som presenteras är äkta eller inte.” Efter att systemet har samlat in informationen och med tanke på att AI fortfarande inte är fullständigt “anpassad för att förstå antydningar, referenser, förtäckta anspelningar och sammanhangen i vilka innehållet publicerades,” tar mänskliga moderatorer över och vägleder AI-systemet för att upptäcka hatretor och falska nyheter.

För att försöka ytterligare utveckla AI-systemens förmåga att kunna täcka alla möjliga nyanser som kännetecknar hatretor, har ett team av forskare vid UC Santa Barbara och Intel, som TheNextWeb (TNW) rapporterar, “tagit tusentals konversationer från de smutsigaste samhällena på Reddit och Gab och använt dem för att utveckla och träna AI för att bekämpa hatretor.”

Enligt deras rapport, för att göra detta, skapade den gemensamma gruppen av forskare en specifik dataset som innehåller “tusentals konversationer som särskilt valts ut för att säkerställa att de skulle vara fulla av hatretor.” De använde också en lista över grupper på Reddit som främst kännetecknas av användning av hatretor som sammanställts av Justin Caffier of Vox.

Forskarna samlat in “mer än 22 000 kommentarer från Reddit och över 33 000 från Gab.” De upptäckte att de två webbplatserna visar liknande populära hat-nyckelord, men fördelningarna är mycket olika.

De noterade att på grund av dessa skillnader är det mycket svårt för sociala medier i allmänhet att ingripa i realtid eftersom flödet av hatretor är så högt att det skulle kräva otaliga verkliga personer för att följa det.

För att ta itu med problemet började forskarteamet att träna AI för att ingripa. Deras initiala databas skickades till Amazon Turk-arbetare för att märkas. Efter att ha identifierat enskilda instanser av hatretor kom arbetarna med fraser som AI skulle användas för att “avskräcka användare från att publicera liknande hatretor i framtiden.”

Baserat på det ” körde teamet denna dataset och dess databas med ingripanden genom olika maskinlärnings- och naturligt språkbehandlingsystem och skapade en sorts prototyp för en online-hatretor-interventions-AI.”

Resultaten var utmärkta, men eftersom utvecklingen fortfarande är i ett tidigt skede, är systemet inte redo att användas ännu. Som förklaras, ” systemet bör i teorin kunna upptäcka hatretor och omedelbart skicka ett meddelande till inläggaren och låta dem veta varför de inte bör publicera saker som uppenbarligen representerar hatretor. Detta beror på mer än bara nyckelordssökning – för att AI ska fungera måste den förstå sammanhanget rätt.”

Före detta diplomat och översättare för UN, för närvarande frilansjournalist/författare/forskare, med fokus på modern teknik, artificiell intelligens och modern kultur.