Tankeledare
Hur Facebooks AI sprider missinformation och hotar demokratin

Dan Tunkelang som övervakade AI-forskning på LinkedIn, uppgav: “I och med att rekommendationer har makten att påverka beslut, blir de ett mål för spammare, bedragare och andra personer med mindre ädla motiv.”
Detta är den kvandary som sociala medieföretag som Facebook upplever. Facebook använder implicit feedback för att spåra klick, visningar och andra mätbara användarbeteenden. Detta används för att utforma vad som identifieras som en “rekommendationsmotor”, ett AI-system som har den ultimata makten att bestämma vem som ser vilket innehåll och när.
Facebook har optimerat sin rekommendationsmotor för att maximera användarengagemang, som mäts av den tid som tillbringas klistrad vid Facebook-plattformen. Maximierung av tid har företräde framför alla andra variabler, inklusive kvaliteten eller precisionen i vad som rekommenderas.
Systemet är utformat för att belöna sensationella rubriker som engagerar användare genom att utnyttja kognitiva bias, även om dessa rubriker råkar vara skrivna av ryska troll med avsikt att splittra samhället eller påverka politiska val.
Hur Facebook använder AI
Det finns en brist på medvetenhet om hur Facebook använder AI för att bestämma vad dess användare ser och interagerar med. Man måste först förstå vad bekräftelsebias är. Psychology Today beskriver detta som:
Bekräftelsebias är benägenheten att söka, tolka, gynna och minnas information på ett sätt som bekräftar eller stöder ens tidigare övertygelser eller värderingar.
Facebook förstår att användare är mer benägna att klicka på nyheter som matar den mänskliga tendensen att söka bekräftelsebias. Detta skapar en farlig förebild för både spridningen av konspirations-teorier och för att skapa eko-kammare där användare matas med exklusivt vad de vill se, oavsett precision eller det samhälleliga inflytandet av vad som ses.
En studie av MIT kunde visa att falska nyheter på Twitter sprids 6 gånger snabbare än riktiga nyheter.
Detta betyder att både Twitter och Facebook kan vapenföras. Medan Twitter möjliggör för alla att medvetet följa flöden med smala eller partiska perspektiv, tar Facebook detta ett steg längre. En användare på Facebook har för närvarande ingen möjlighet att kontrollera eller mäta vad som ses, detta kontrolleras helt av Facebooks rekommendationsmotor, hur den mäter användarengagemang och hur den optimerar för detta engagemang.
Facebook försöker forma och förutsäga sina användares önskemål. Facebook uppskattar i vilken utsträckning en användare kommer att gilla eller ogilla en nyhetsartikel som ännu inte har upplevts av användaren. För att undvika en förlust i användarengagemang, väljer Facebook sedan att kringgå nyhetsartiklar som kan minska nivån på engagemanget, och väljer istället att engagera användaren genom att mata nyhetsartiklar som matar bekräftelsebias, vilket säkerställer fler klick, kommentarer, gillanden och delningar.
Facebook använder också automatiserad samarbetsfiltrering av historiska användarhandlingar och åsikter för att automatiskt matcha deltagare (vänner) med liknande åsikter. Facebook använder en nyttafunktion som automatiskt och matematiskt förutsäger och rangordnar dina preferenser för artiklar som du vill se.
Detta orsakar att användare hamnar i en kaninhål, de är fångade i falska nyheter, matas med innehåll som förstärker deras bias. Innehållet som presenteras är medvetet utformat med målet att påverka vad du klickar på. Om du tror på konspirationen att Bill Gates försöker mikrochippa den mänskliga befolkningen med hjälp av vaccin, varför ska Facebook presentera dig med motsägande bevis som kan orsaka att du avbryter engagemanget med plattformen? Om du stöder en viss politisk kandidat, varför ska Facebook erbjuda nyheter som kan motsäga dina positiva åsikter om samma kandidat?
Som om detta inte vore tillräckligt, engagerar Facebook också i vad som kallas “socialt bevis”. Socialt bevis är konceptet att människor kommer att följa massans handlingar. Idén är att eftersom så många andra människor beter sig på ett visst sätt, måste det vara det rätta beteendet.
Facebook tillhandahåller detta sociala bevis i form av gillanden, kommentarer eller delningar. Eftersom endast vissa vänner kan se nyhetsflödesartikeln (om de inte specifikt söker en användares nyhetsflöde), tjänar det sociala beviset bara till att förstärka bekräftelsebias.
Facebook använder också filterbubblor för att begränsa exponeringen för motsägande, motsägande och utmanande perspektiv.
Facebook-annonser
Omedvetna Facebook-användare kan klicka på annonser utan att vara medvetna om att de presenteras med annonser. Anledningen till detta är enkel, om det finns en annons, ser endast den första personen som presenteras med annonsen annonsdisclaimern. Om den användaren delar annonsen, ser alla på deras vänlista bara “dela” som en nyhetsflödesartikel, eftersom Facebook medvetet släpper annonsdisclaimern. Omedelbart släpper användarna sin vakt, de kan inte skilja mellan vad som är en annons och vad som skulle ha dykt upp organiskt på deras nyhetsflöde.
Facebook-delande
Tyvärr blir saker värre. Om en användare har 1000 vänner som samtidigt delar innehåll, kommer rekommendationsmotorn att prioritera innehåll från minoriteten som delar samma åsikter, även om dessa ofta består av obestyrkta konspirationsteorier. Användaren kommer sedan att vara under intrycket att dessa nyhetsflödesartiklar ses av alla. Genom att engagera sig i detta nyhetsflöde, optimerar dessa användare varandras sociala bevis.
Om en användare försöker upplysa en annan användare om en vilseledande eller falsk artikel, förstärker själva handlingen att kommentera eller engagera sig i nyhetsflödet bara den ursprungliga användarens engagemangstid. Denna återkopplingsloop orsakar att Facebook förstärker att engagera användaren med ytterligare falska nyheter.
Detta skapar en eko-kammare, en filterbubbla där en användare tränas att bara tro på vad de ser. Sanningen är bara en illusion.
Allvaret i frågan
Över 10 miljoner människor engagerade sig i ett nyhetsflöde som hävdade att påven Franciskus kom ut till stöd för Trumps val 2016. Det fanns inga bevis för detta, det var bara en falsk nyhetsartikel som kom från Ryssland, men detta var den mest delade nyhetsartikeln på Facebook under de tre månader som ledde upp till valet 2016.
Nyhetsartikeln genererades av en rysk trollfabrik som kallar sig “Internet Research Agency”. Samma organisation var ansvarig för att främja och dela på Twitter och Facebook rasistiska artiklar, till stöd för att demonisera Black Lives Matter, och vapen för falska nyhetsartiklar som sprider falska påståenden om amerikanska politiker.
Select Committee on Intelligence släppte en 85-sidors rapport som detaljerar ryska aktiva åtgärder och ingripanden, där den största delen bestod av spridning av splittrande falska nyheter och propaganda som hade det enda syftet att påverka valet 2016 i USA.
Låt oss gå framåt till valet 2020 och problemet har bara intensifierats. I september 2020, efter en FBI-tips, avslutade Facebook och Twitter sociala mediekonton för en nyhetsorganisation som heter PeaceData, som är länkad till Rysslands statliga propaganda-insatser.
Tyvärr är att stänga av konton en tillfällig och ineffektiv lösning. Ryska konton tar ofta formen av vänförfrågningar, ofta äcklade av kvinnor med attraktiva profiler som riktar sig till män, eller också med kapade användarkonton med en historia av regelbundna inlägg. Dessa kapade konton skiftar långsamt till mer politiska inlägg, tills de domineras av propaganda eller konspirationsteorier.
En omedveten användare kan vara omedveten om att en vänns konto har komprometterats. Om den användaren är sårbar för konspirationsteorier, kan de engagera sig i den falska nyhetsartikeln, den ryska trollet som ofta är en bot, sedan tillhandahåller ytterligare socialt bevis i form av gillanden eller kommentarer.
Sårbara användare är ofta de som minst förstår hur teknologi och AI fungerar. Den över 65-årsdemografin som är den befolkning som är mest benägna att rösta, är också den mest benägna att sprida falska nyheter, som rapporterats av New York Times.
Enligt studien publicerade Facebook-användare i åldern 65 och äldre sju gånger fler artiklar från falska nyhetswebbplatser än vuxna 29 och yngre. En brist på digitala mediekompetenser har gjort att denna åldersgrupp inte är förberedd för ett nyhetsflöde som inte grundar sig på fakta eller precision, utan exklusivt på användarengagemang.
Dåliga aktörer utnyttjar Facebooks rekommendationsmotor som utnyttjar våra kognitiva bias mot oss. Samma organisationer har optimerat missbruket av Facebooks AI för att sprida konspirationsteorier och propaganda. Konspirationsteorier som kan verka oskyldiga från början, används ofta som trattar till vit makt, högerextrem nationalism eller QAnon en bisarr konspirationsteori som involverar Trump som försöker rädda världen från liberala pedofiler, en konspiration som har noll grund i verkligheten.
Sammanfattning
Facebook är tydligt medvetet om att det finns ett problem och de har offentligt tillkännagett en strategi som fokuserar på att ta bort innehåll som bryter mot Facebooks community-standarder. Problemet är att ta bort konton är en tillfällig lösning som är ineffektiv när konton genereras i bulk av botar eller masshacking av användarkonton. Det löser inte heller problemet att de flesta delningar görs av vanliga användare som är omedvetna om att de sprider missinformation.
Att lägga till varningsetiketter tjänar bara till att förstärka konspirationsteorier som sociala mediejättar är partiska mot konservativa, som är de mest mottagliga för falska nyheter.
Lösningen måste vara en ny rekommendationsmotor som mäter inte bara användarengagemang, utan är optimerad för användarlycka genom att leverera sanning och främja förbättrad självmedvetenhet.
Under tiden bör Facebook följa den väg som Twitter tog för att förbjuda politiska annonser.
Slutligen måste en viktig fråga ställas. Om människor inte längre har ett val på de nyheter de ser, när slutar det att vara en rekommendation och när blir det tankestyrning?
Rekommenderad läsning:
Ryska aktiva åtgärder och ingripanden – Rapport av Select Committee on Intelligence United States Senate.
Den chockerande rapporten som förutspår slutet för demokratin – Av Rick Shenkman, grundare av George Washington Universitys History News Network.
Äldre människor delar falska nyheter på Facebook mer – Av New York Times












