Connect with us

Kunstig intelligens

Tidlig Advarselssystem for Desinformation Udviklet med AI

mm

Forskere ved University of Notre Dame arbejder på et projekt for at bekæmpe desinformation på nettet, herunder medie-kampagner til at anstifte vold, så dybe splid og blande sig i demokratiske valg. 

Forskerholdet har satset på kunstig intelligens (AI) til at udvikle et tidligt advarselssystem. Systemet vil være i stand til at identificere manipulerede billeder, deepfake-videoer og desinformation på nettet. Det er et skalerbart, automatiseret system, der bruger indholdsbaseret billedgenkendelse. Det kan derefter anvende computer-vision-baserede teknikker til at identificere politiske memes på flere sociale medie-netværk. 

Tim Weninger er en associate professor i afdelingen for datalogi og ingeniørvidenskab på Notre Dame. 

“Memes er lette at oprette og endnu lettere at dele,” sagde Weninger. “Når det kommer til politiske memes, kan disse bruges til at hjælpe med at få folk til at stemme, men de kan også bruges til at sprede ukorrekte oplysninger og forårsage skade.”

Weninger samarbejdede med Walter Scheirer, en assistant professor i afdelingen for datalogi og ingeniørvidenskab på Notre Dame, sammen med medlemmer af forskerholdet. 

2019 Valg i Indonesien

Holdet testede systemet med 2019-valget i Indonesien. De samlede over to millioner billeder og indhold fra forskellige kilder på Twitter og Instagram i forbindelse med valget. 

I valget vandt den venstreorienterede, centristiske siddende over den konservative, populistiske kandidat. Efter valget brød voldelige protester ud, hvor otte mennesker døde og hundredvis mere blev såret. Holdets studie fandt, at der var spontane og koordinerede kampagner, der blev lanceret på sociale medier med det formål at påvirke valget og anstifte vold. 

De koordinerede kampagner brugte manipulerede billeder, der projicerede falske påstande og misrepræsenterede visse begivenheder. Nyhedsartikler og memes blev fabrikeret med brug af legitime nyhedslogoer med det formål at provokere borgere og støtter fra begge parter. 

Resten af Verden

2019-valget i Indonesien er en repræsentation af, hvad der kan ske i resten af verden. Desinformation, især spredt gennem sociale medier, kan true demokratiske processer. 

Forskerholdet på Notre Dame inkluderede digitale kriminalteknikereksperter og specialister i fredsstudier. Ifølge holdet udvikles systemet for at markere manipuleret indhold med det formål at forhindre vold og advare journalister eller valgovervågere om potentielle trusler. 

Systemet er stadig i forsknings- og udviklingsfasen, men det vil til sidst være skalerbart og personligt tilpasset brugere til at overvåge indhold. Nogle af de største udfordringer i udviklingen af systemet inkluderer at bestemme den bedste måde at skala op dataindtagelse og -behandling på. Ifølge Scheirer bliver systemet i øjeblikket vurderet, og det næste skridt er en overgang til operationel brug. 

Der er en chance for, at systemet kan blive brugt til at overvåge 2020-valget i USA, som forventes at se massive mængder af desinformation og manipulation.

“Desinformationens tidsalder er her,” sagde Scheirer. “En deepfake, der erstatter skuespillere i en populær film, kan synes morsom og lystig, men forestil dig en video eller en meme, der er skabt udelukkende til at sætte en verdensleder mod en anden – sige ord, de ikke faktisk sagde. Forestil dig, hvor hurtigt det indhold kan deles og spredes på tværs af platforme. Overvej konsekvenserne af disse handlinger.”

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.