Tankeledere
Hvordan Facebooks AI spreder misinformasjon og true demokrati

Dan Tunkelang, som overvåket AI-forskning på LinkedIn, uttalte: “I det øyeblikk anbefalinger har makten til å påvirke beslutninger, blir de et mål for spammere, svindlere og andre personer med mindre edle motiver.”
Dette er den gordiske knuten sosiale medie-selskaper som Facebook erfaring. Facebook bruker implisitt tilbakemelding for å spore klikk, visninger og andre målbare brukeratferd. Dette brukes til å designe hva som identifiseres som en “anbefalingsmotor”, et AI-system som har den ultimate makten til å bestemme hvem som ser hva innhold og når.
Facebook har optimalisert sin anbefalingsmotor for å maksimere brukerengasjement, som måles ved hvor mye tid som tilbringes limt til Facebook-plattformen. Maksimering av tid har prioritet over alle andre variabler, inkludert kvalitet eller nøyaktighet på hva som anbefales.
Systemet er designet for å belønne sensasjonsmessige overskrifter som engasjrer brukerne ved å utnytte kognitiv bias, selv om disse overskriftene skrives av russiske troller med intensjonen å splitte samfunnet eller påvirke politiske valg.
Hvordan Facebook bruker AI
Det er en mangel på bevissthet om hvordan Facebook bruker AI for å bestemme hva brukerne ser og interagerer med. En må først forstå hva bekreftelsesbias er. Psychology Today beskriver dette som:
Bekreftelsesbias er tendensen til å søke etter, tolke, favorisere og huske informasjon på en måte som bekrefter eller støtter en persons tidligere overbevisninger eller verdier.
Facebook forstår at brukerne er mer sannsynlige til å klikke på nyheter som mates inn i den menneskelige tendensen til å søke etter bekreftelsesbias. Dette setter en farlig presedens for både spredning av konspirasjonsteorier og for å skape ekko-kamre hvor brukerne mates eksklusivt med hva de vil se, uavhengig av nøyaktighet eller samfunnets påvirkning av hva som sees.
En studie av MIT kunne demonstrere at falske nyheter på Twitter spreder seg 6 ganger raskere enn sanne nyheter.
Dette betyr at både Twitter og Facebook kan våpeniseres. Mens Twitter muliggjør at noen kan følge feeds med smale eller partiske synspunkter, tar Facebook dette et skritt videre. En bruker på Facebook har for øyeblikket ingen måte å kontrollere eller måle hva som sees, dette kontrolleres fullstendig av Facebooks anbefalingsmotor, hvordan den måler brukerengasjement og hvordan den optimaliserer for dette samme brukerengasjementet.
Facebook prøver å forme og forutsi brukernes ønsker. Facebook anslår i hvilken grad en bruker vil like eller mislike en nyhetsartikkel som ikke er erfart av brukeren. For å unngå et tap i brukerengasjement, velger Facebook å gå forbi nyhetsartikler som kan redusere nivået av engasjement, og velger i stedet å engasjere brukeren ved å mate nyhetsartikler som mater bekreftelsesbias, sikrer mer klikk, kommentarer, liker og delinger.
Facebook bruker også automatisert samarbeidende filtrering av historiske brukerhandlinger og meninger for å automatisk matche deltakere (venner) med lignende meninger. Facebook bruker en nyttefunksjon som automatisk og matematisk forutsier og rangerer dine preferanser for elementer du vil se.
Dette fører til at brukerne faller i en kaninhull, de er fanget i falske nyheter, mates innhold som forsterker deres bias. Innholdet som presenteres er i seg selv designet med målet om å påvirke hva du klikker på. Hvis du tror på konspirasjonen om at Bill Gates prøver å mikrochippe den menneskelige befolkningen ved å bruke vaksiner, hvorfor skulle Facebook presentere deg med motsigende bevis som kan føre til at du frakobler deg fra plattformen? Hvis du støtter en bestemt politisk kandidat, hvorfor skulle Facebook tilby nyheter som kan motsi dine positive synspunkter på samme kandidat?
Som om dette ikke var tilstrekkelig, engasjrer Facebook også i hva som kalles “sosial bevis”. Sosial bevis er konseptet om at mennesker vil følge handlingene til massene. Ideen er at siden så mange andre mennesker oppfører seg på en bestemt måte, må det være riktig oppførsel.
Facebook gir dette sosiale bevis i konteksten av liker, kommentarer eller delinger. Siden bare visse venner kan se nyhetsfeed-elementet (med mindre de spesifikt søker en brukers nyhetsfeed), tjener det sosiale beviset bare til å forsterke bekreftelsesbiasen.
Facebook bruker også filterbobler for å begrense eksponeringen til motsigende, motsigelser og utfordrende synspunkter.
Facebook-reklamer
Uviten Facebook-brukere kan klikke på reklamer uten å være klar over at de presenteres for reklamer. Grunnen til dette er enkel, hvis det bare er en reklame, vil bare den første personen som presenteres for reklamen se reklameadvarselen. Hvis denne brukeren deler reklamen, ser alle på vennelisten bare delingen som et nyhetsfeed-element, siden Facebook med vilje dropper reklameadvarselen. Umiddelbart, slipper brukerne vakt og de er ikke i stand til å skille mellom hva som er en reklame og hva som ville ha dukket opp naturlig på nyhetsfeeden.
Facebook-delinger
Uheldigvis blir ting verre. Hvis en bruker har 1000 venner som samtidig deler innhold, vil anbefalingsmotoren prioritere innhold fra minoriteten som deler samme synspunkter, selv om disse ofte består av ubekreftede konspirasjonsteorier. Brukeren vil da være under illusjonen at disse nyhetsfeed-elementene sees av alle. Ved å engasjere seg i denne nyhetsfeeden, optimaliserer disse brukerne hverandres sosiale bevis.
Hvis en bruker prøver å opplyse en annen bruker om en misvisende eller falsk artikkel, fører det bare til at den opprinnelige brukerens engasjementstid øker. Denne tilbakemeldingsløkken fører til at Facebook forsterker å engasjere denne brukeren med ytterligere falske nyheter.
Dette fører til en ekko-kammer, en filterboble hvor en bruker er trent til å bare tro på hva de ser. Sannhet er bare en illusjon.
Alvorlighetsgraden av problemet
Over 10 millioner mennesker engasjerte i en nyhetsfeed som hevdet at pave Frans kom ut til støtte for Trumps valg i 2016. Det var ingen bevis for dette, det var bare en falsk nyhetshistorie som kom fra Russland, men dette var den mest-delte nyheten på Facebook i de tre månedene før valget i 2016.
Nyhetsartikkelen ble generert av en russisk trollefabrikk som kaller seg “Internet Research Agency”. Denne samme organisasjonen var ansvarlig for å fremme og dele på Twitter og Facebook rase-tiltrekkende artikler, til støtte for å demonisere Black Lives Matter, og å våpenisere falske nyheter som spredte feilaktige påstander om amerikanske politikere.
Valgkomiteen for etterretning utga en 85-siders rapport som detaljerte russiske aktive mål-kampanjer og innblanding, hvor størsteparten involverte spredning av splittende falske nyheter og propaganda som hadde det eneste målet å påvirke valget i 2016.
I fremtiden til valget i 2020 har problemet bare intensivert seg. I september 2020, etter en FBI-tipp, avsluttet Facebook og Twitter sosiale mediekontoer for en nyhetsorganisasjon som kalte seg PeaceData, som er koblet til Russlands statlige propaganda-innsats.
Uheldigvis er å avslutte kontoer en midlertidig og ueffektiv løsning. Russiske kontoer tar ofte formen av vennforespørsler, ofte forkledd som kvinner med attraktive profiler som tar sikte på menn, eller med kapret brukerkontoer med en historie av regulære innlegg. Disse kaprede kontoene skifter langsomt til mer politiske innlegg, til de domineres av propaganda eller konspirasjonsteorier.
En uviten bruker kan være uvitende om at en venns konto er kompromittert. Hvis denne brukeren er sårbar for konspirasjonsteorier, kan de engasjere seg i den falske nyhetsfeeden, den russiske trollet som ofte er en bot, gir så ytterligere sosial bevis i form av liker eller kommentarer.
Sårbar bruker er ofte de som minst forstår hvordan teknologi og AI fungerer. Den over 65-demografien, som er befolkningen som er mest sannsynlig til å stemme, er også den mest sannsynlige til å spre falske nyheter, som rapportert av New York Times.
Ifølge studien delte Facebook-brukere i alderen 65 og eldre syv ganger så mange artikler fra falske nyhetswebsites som voksne i alderen 29 og yngre. En mangel på digital mediekompetanse gjør at denne aldersgruppen er uforberedt på en nyhetsfeed som ikke er basert på fakta eller nøyaktighet, men eksklusivt på brukerengasjement.
Dårlige aktører tar fordel av Facebooks anbefalingsmotor som utnytter våre kognitive bias mot oss. Disse samme organisasjonene har optimalisert misbruk av Facebooks AI for å spre konspirasjonsteorier og propaganda. Konspirasjonsteorier som kan synes harmløse til å begynne med, brukes ofte som kanaler inn i hvit nasjonalisme, høyre-ekstrem nasjonalisme eller QAnon en merkelig konspirasjonsteori som involverer Trumps forsøk på å redde verden fra liberale pedofiler, en konspirasjon som har ingen basis i virkeligheten.
Oppsummering
Facebook er tydeligvis klar over at det er et problem og de har offentlig annonsert en strategi som fokuserer på å fjerne innhold som krenker Facebooks samfunnsstandarder. Problemet er at sletting av kontoer er en midlertidig midlertidig løsning som er ueffektiv når kontoer genereres i bulk av boter eller massiv hacking av brukerkontoer. Det løser heller ikke problemet at de fleste delinger er gjort av vanlige brukere som er uvitende om at de spreder misinformasjon.
Å legge til advarselsetiketter tjener bare til å forsterke konspirasjonsteorier om at sosiale medie-giganter er partiske mot konservative, som er de mest sårbar for falske nyheter.
Løsningen må være en ny anbefalingsmotor som måler ikke bare brukerengasjement, men er optimalisert for brukerlykke ved å levere sannhet og fremme økt selvbevissthet.
I mellomtiden bør Facebook følge den samme veien som Twitter tok for å forby politiske annonser.
Til slutt må en viktig spørsmål stilles. Hvis mennesker ikke lenger har et valg om nyhetene de ser, når slutter det å være en anbefaling og når blir det kontroll over tankene?
Anbefalt lesning:
Russiske aktive mål-kampanjer og innblanding – Rapport fra Valgkomiteen for etterretning, United States Senate.
Den chokerende rapporten som forutsier slutten på demokrati – Av Rick Shenkman, grunnlegger av George Washington Universitys History News Network.
Eldre mennesker deler falske nyheter på Facebook mer – Av New York Times












