Tankeledere
Hvordan Facebooks AI spreser misinformasjon og truer demokrati

Dan Tunkelang, som overvåket AI-forskning på LinkedIn, uttalte: “I det øyeblikk anbefalinger har makten til å påvirke beslutninger, blir de et mål for spammere, svindlere og andre personer med mindre edle motiver.”
Dette er det dilemma sosiale medie-selskaper som Facebook opplever. Facebook bruker implisitt tilbakemelding for å spore klikk, visninger og andre målbare brukeratferder. Dette brukes til å designe det som kalles en “anbefalingsmotor”, et AI-system som har den ultimate makten til å bestemme hvem som ser hva innhold og når.
Facebook har optimalisert sin anbefalingsmotor for å maksimere brukerengasjement, som måles ved hvor mye tid som tilbringes på Facebook-plattformen. Maksimering av tid har prioritet over alle andre variabler, inkludert kvalitet eller nøyaktighet på hva som anbefales.
Systemet er designet for å belønne sensasjonspregete overskrifter som engasjrer brukerne ved å utnytte kognitiv forvrengning, selv om disse overskriftene skrives av russiske troler med intensjonen å splitte samfunnet eller påvirke politiske valg.
Hvordan Facebook bruker AI
Det er en mangel på bevissthet om hvordan Facebook bruker AI for å bestemme hva brukerne ser og interagerer med. En må først forstå hva bekreftelsesforvrengning er. Psychology Today beskriver dette som:
Bekreftelsesforvrengning er tendensen til å søke etter, tolke, favorisere og huske informasjon på en måte som bekrefter eller støtter en persons tidligere overbevisninger eller verdier.
Facebook forstår at brukerne er mer sannsynlig til å klikke på nyheter som mates inn i den menneskelige tendensen til å søke bekreftelsesforvrengning. Dette setter en farlig presedens for både spredning av konspirasjonsteorier og for å skape ekko-kammer hvor brukerne mates eksklusivt hva de vil se, uavhengig av nøyaktighet eller samfunnets innvirkning på hva som sees.
En studie av MIT kunne demonstrere at feilaktig nyheter på Twitter spres 6 ganger raskere enn sanne nyheter.
Dette betyr at både Twitter og Facebook kan våpeniseres. Mens Twitter tillater hvem som helst å følge feeds med smale eller partiske synspunkter, tar Facebook dette et skritt videre. En bruker på Facebook har for øyeblikket ingen måte å kontrollere eller måle hva som sees, dette kontrolleres fullstendig av Facebooks anbefalingsmotor, hvordan den måler brukerengasjement og hvordan den optimaliserer for dette samme brukerengasjementet.
Facebook forsøker å forme og forutsi brukernes ønsker. Facebook estimerer i hvilken grad en bruker vil like eller mislike en nyhetsartikkel som ikke er erfart av brukeren. For å unngå en tap i brukerengasjement, velger Facebook å gå forbi nyhetsartikler som kan redusere nivået av engasjement, og velger i stedet å engasjere brukeren ved å mate nyhetsartikler som mater bekreftelsesforvrengning, sikrer mer klikk, kommentarer, liker og delinger.
Facebook bruker også automatisert samarbeidende filtrering av historiske brukerhandlinger og meninger for å automatisk matche deltakere (venner) med lignende meninger. Facebook bruker en nyttefunksjon som automatisk og matematisk forutsier og rangerer dine preferanser for elementer du vil se.
Dette får brukerne til å falle i en kaninhol, de er fanget i feilaktig nyheter, mates innhold som forsterker deres forvrengning. Innholdet som presenteres er i seg selv designet med målet om å påvirke hva du klikker på. Hvis du tror på konspirasjonsteorien om at Bill Gates prøver å mikrochippe menneskeheten ved å bruke vaksiner, hvorfor skulle Facebook presentere deg med motsigelser som kan få deg til å avslutte plattformen? Hvis du støtter en bestemt politisk kandidat, hvorfor skulle Facebook tilby nyheter som kan motsi dine positive synspunkter på denne samme kandidaten?
Som om dette ikke var tilstrekkelig, engasjrer Facebook også i det som kalles “sosial bevis”. Sosial bevis er konseptet om at mennesker vil følge handlingene til massene. Ideen er at siden så mange andre mennesker oppfører seg på en bestemt måte, må det være riktig oppførsel.
Facebook gir dette sosiale bevis i konteksten av liker, kommentarer eller delinger. Siden bare bestemte venner kan se nyhetsfeed-elementet (med mindre de spesifikt søker en brukers nyhetsfeed), tjener det sosiale beviset bare til å forsterke bekreftelsesforvrengningen.
Facebook bruker også filterbobler for å begrense eksponeringen for motsigelser, motsigende og/eller utfordrende synspunkter.
Facebook-reklame
Uviten Facebook-brukere kan klikke på reklame uten å være klar over at de presenteres for reklame. Grunnen til dette er enkel, hvis det bare er en reklame, vil bare den første personen som presenteres for reklamen se reklameadvarselen. Hvis denne brukeren deler reklamen, ser alle på vennelisten bare “delen” som et nyhetsfeed-element, siden Facebook med vilje dropper reklameadvarselen. Umiddelbart, slipper brukerne vakt og de er ikke i stand til å skille mellom hva som er en reklame og hva som ville ha dukket opp naturlig på deres nyhetsfeed.
Facebook-deling
Uheldigvis blir ting verre. Hvis en bruker har 1000 venner som samtidig deler innhold, vil anbefalingsmotoren prioritere innhold fra minoriteten som deler de samme synspunktene, selv om disse ofte består av ubekreftede konspirasjonsteorier. Brukeren vil da være under illusjonen om at disse nyhetsfeed-elementene sees av alle. Ved å engasjere seg i denne nyhetsfeeden, optimaliserer disse brukerne hverandres sosiale bevis.
Hvis en bruker prøver å opplyse en annen bruker om en misvisende eller feilaktig element, får selve handlingen å kommentere eller engasjere seg i nyhetsfeeden bare brukerens engasjementstid til å øke. Denne tilbakemeldingsløkken får Facebook til å forsterke å engasjere denne brukeren med ytterligere feilaktig nyheter.
Dette skaper en ekko-kammer, en filterboble hvor en bruker blir trent til å bare tro på hva de ser. Sannhet er bare en illusjon.
Alvorligheten av problemet
Over 10 millioner mennesker engasjerte seg i en nyhetsfeed som hevdet at pave Frans kom ut til støtte for Trumps valg i 2016. Det var ingen bevis for dette, det var bare en feilaktig nyhetshistorie som kom fra Russland, men dette var den mest-delte nyheten på Facebook i de tre månedene før valget i 2016.
Nyhetsartikkelen ble generert av en russisk troll-fabrikk som kaller seg “Internet Research Agency”. Denne samme organisasjonen var ansvarlig for å fremme og dele på Twitter og Facebook rase-baiting-artikler, til støtte for å demonisere Black Lives Matter, og å våpenisere feilaktig nyheter som spredte feilaktige påstander om amerikanske politikere.
Valgkomiteen for etterretning utga en 85-siders rapport som detaljerer russiske aktive kampanjer og innblanding, hvor størsteparten bestod av spredning av splittende feilaktig nyheter og propaganda som hadde det eneste formålet å påvirke valget i 2016.
I fremtiden til valget i 2020 har problemet bare intensivert seg. I september 2020, etter en FBI-tip, avsluttet Facebook og Twitter sosiale mediekontoer for en nyhetsorganisasjon som kalte seg PeaceData, som er koblet til Russlands statlige propaganda-innsats.
Uheldigvis er å avslutte kontoer en midlertidig og ineffektiv løsning. Russiske kontoer tar ofte formen av vennforespørsler, ofte forkledt som kvinner med attraktive profiler som målretter menn, eller med kapret brukerkontoer med en historie av regelmessige innlegg. Disse kaprede kontoene skifter langsomt til mer politiske innlegg, til de er dominert av propaganda eller konspirasjonsteorier.
En uviten bruker kan være uvitende om at en venns konto er kompromittert. Hvis denne brukeren er sårbar for konspirasjonsteorier, kan de engasjere seg i den feilaktige nyhetsfeeden, den russiske trolen som ofte er en bot, gir så ytterligere sosial bevis i form av liker eller kommentarer.
Sårbar bruker er ofte de som minst forstår hvordan teknologi og AI fungerer. Den over 65-årige befolkningen, som er den mest sannsynlige å stemme, er også den mest sannsynlige til å spre feilaktig nyheter, som rapportert av New York Times.
Ifølge studien delte Facebook-brukere i alderen 65 og eldre syv ganger så mange artikler fra feilaktige nyhetssteder som voksne i alderen 29 og yngre. En mangel på digital mediekompetanse gjør at denne aldersgruppen er uforberedt på en nyhetsfeed som ikke er basert på fakta eller nøyaktighet, men eksklusivt på brukerengasjement.
Dårlige aktører tar fordel av Facebooks anbefalingsmotor som utnytter våre kognitive forvrengninger mot oss. Disse samme organisasjonene har optimalisert misbruket av Facebooks AI for å spre konspirasjonsteorier og propaganda. Konspirasjonsteorier som kan synes harmløse til å begynne med, brukes ofte som kanaler inn i hvit nasjonalisme, ekstrem høyre-vinge nasjonalisme eller QAnon en merkelig konspirasjonsteori som involverer Trumps forsøk på å redde verden fra liberale pedofiler, en konspirasjon som har ingen basis i virkeligheten.
Oppsummering
Facebook er tydeligvis klar over at det er et problem og de har offentlig annonsert en strategi som fokuserer på å fjerne innhold som krenker Facebooks samfunnsstandarder. Problemet er at å slette kontoer er en midlertidig midlertidig løsning som er ineffektiv når kontoer genereres i bulk av boter eller massiv hacking av brukerkontoer. Det løser heller ikke problemet at de fleste delinger er gjort av vanlige brukere som er uvitende om at de spreser misinformasjon.
Å legge til advarsler merker bare tjener til å forsterke konspirasjonsteorier om at sosiale medie-giganter er partiske mot konservative, som er de mest sårbar for feilaktig nyheter.
Løsningen må være en ny anbefalingsmotor som måler ikke bare brukerengasjement, men er optimalisert for brukerlykke ved å levere sannhet og fremme økt selvbevissthet.
I mellomtiden bør Facebook følge den samme veien som Twitter tok for å forby politiske annonser.
Til slutt må en viktig spørsmål stilles. Hvis mennesker ikke lenger har et valg på nyhetene de ser, når slutter det å være en anbefaling og når blir det kontroll over sinnet?
Anbefalt lesing:
Russiske aktive kampanjer og innblanding – Rapport fra Valgkomiteen for etterretning, Amerikas forente stater.
Den sjokkerende rapporten som forutsier slutten på demokrati – Av Rick Shenkman, grunnlegger av George Washington Universitys History News Network.
Eldre mennesker deler feilaktig nyheter på Facebook mer – Av New York Times












