Thought leaders
Hoe Facebooks AI desinformatie verspreidt en de democratie bedreigt

Dan Tunkelang, die AI-onderzoek leidde bij LinkedIn, zei: “Op het moment dat aanbevelingen de macht hebben om beslissingen te beïnvloeden, worden ze een doelwit voor spammers, oplichters en andere mensen met minder nobele motieven.”
Dit is het dilemma waarin socialemediabedrijven zoals Facebook zich bevinden. Facebook gebruikt impliciete feedback om klikken, weergaven en andere meetbare gebruikersgedragingen te volgen. Dit wordt gebruikt om een “aanbevelingsengine” te ontwerpen, een AI-systeem dat de uiteindelijke macht heeft om te beslissen wie welke inhoud ziet en wanneer.
Facebook heeft zijn aanbevelingsengine geoptimaliseerd om de gebruikersbetrokkenheid te maximaliseren, die wordt gemeten door de hoeveelheid tijd die wordt doorgebracht op het Facebook-platform. Maximale tijd heeft voorrang op elke andere variabele, inclusief de kwaliteit of nauwkeurigheid van wat wordt aanbevolen.
Het systeem is ontworpen om sensationele koppen te belonen die gebruikers betrekken door cognitieve bias te exploiteren, zelfs als die koppen zijn geschreven door Russische trolls met de bedoeling om de samenleving te verdelen of politieke verkiezingen te beïnvloeden.
Hoe Facebook AI gebruikt
Er is een gebrek aan bewustzijn over hoe Facebook AI gebruikt om te beslissen wat zijn gebruikers zien en waarmee ze interacteren. Men moet eerst begrijpen wat bevestigingsbias is. Psychology Today beschrijft dit als:
Bevestigingsbias is de neiging om informatie te zoeken, te interpreteren, te bevorchten en te onthouden op een manier die de eigen eerdere overtuigingen of waarden bevestigt of ondersteunt.
Facebook begrijpt dat gebruikers vaker klikken op nieuws dat de menselijke neiging om bevestigingsbias te zoeken, voedt. Dit zet een gevaarlijk precedent voor zowel de verspreiding van complottheorieën als voor het creëren van echo-kamers waarin gebruikers alleen worden gevoed met wat ze willen zien, ongeacht de nauwkeurigheid of de maatschappelijke impact van wat wordt getoond.
Een studie van MIT kon aantonen dat nepnieuws op Twitter zes keer sneller verspreidt dan echt nieuws.
Dit betekent dat zowel Twitter als Facebook kunnen worden gebruikt als wapen. Terwijl Twitter iedereen in staat stelt om bewust te volgen feeds met smalle of bevooroordeelde standpunten, gaat Facebook een stap verder. Een gebruiker op Facebook heeft momenteel geen enkele manier om te controleren of te meten wat wordt getoond, dit wordt volledig gecontroleerd door Facebook’s aanbevelingsengine, hoe het gebruikersbetrokkenheid meet en hoe het wordt geoptimaliseerd voor deze gebruikersbetrokkenheid.
Facebook probeert de wensen van zijn gebruikers te vormen en te voorspellen. Facebook schat in hoeverre een gebruiker een nieuwsitem zal leuk vinden of niet, voordat de gebruiker het heeft meegemaakt. Om een verlies in gebruikersbetrokkenheid te voorkomen, kiest Facebook ervoor om nieuwsitems te omzeilen die de betrokkenheid kunnen verminderen en kiest in plaats daarvan voor het betrekken van de gebruiker door nieuwsitems te voeden die de bevestigingsbias voeden, waardoor meer klikken, opmerkingen, likes en shares ontstaan.
Facebook gebruikt ook geautomatiseerde collaboratieve filtering van historische gebruikersacties en meningen om deelnemers (vrienden) automatisch te koppelen met soortgelijke meningen. Facebook gebruikt een nuttigheidsfunctie die automatisch en wiskundig de voorkeuren van een gebruiker voor items voorspelt en rangschikt die hij wil zien.
Dit zorgt ervoor dat gebruikers in een konijnenhol vallen, ze worden gevangen in nepnieuws, worden gevoed met inhoud die hun bias versterkt. De getoonde inhoud is inherent ontworpen met het doel om te beïnvloeden wat je klikt.
Als dit nog niet genoeg was, gebruikt Facebook ook wat bekend staat als “sociale bewijs”. Sociale bewijs is het concept dat mensen de acties van de massa volgen. Het idee is dat omdat zo veel andere mensen op een bepaalde manier gedragen, het de juiste gedraging moet zijn.
Facebook biedt deze sociale bewijs in de context van likes, opmerkingen of shares. Aangezien alleen bepaalde vrienden een nieuwsfeed-item kunnen zien (tenzij ze specifiek de nieuwsfeed van een gebruiker zoeken), dient het sociale bewijs alleen om de bevestigingsbias te versterken.
Facebook gebruikt ook filterbubbels om de blootstelling aan conflicterende, tegenstrijdige en uitdagende standpunten te beperken.
Facebook-advertenties
Onverwachte Facebook-gebruikers kunnen klikken op advertenties zonder zich ervan bewust te zijn dat ze worden gepresenteerd met advertenties. De reden hiervoor is eenvoudig, als er een advertentie is, ziet alleen de eerste persoon die de advertentie ziet de advertentie-disclaimer. Als die gebruiker de advertentie deelt, zien alle gebruikers op hun vriendenlijst alleen de “deel” als een nieuwsfeed-item, omdat Facebook de advertentie-disclaimer opzettelijk weglaat. Onmiddellijk laten gebruikers hun bewaking varen, ze zijn niet in staat om te onderscheiden tussen wat een advertentie is en wat organisch op hun nieuwsfeed zou zijn verschenen.
Facebook-delen
Helaas wordt het nog erger. Als een gebruiker 1000 vrienden heeft die tegelijkertijd inhoud delen, zal de aanbevelingsengine prioriteit geven aan inhoud van de minderheid die dezelfde meningen deelt, zelfs als deze vaak bestaan uit onbewezen complottheorieën. De gebruiker zal dan onder de illusie staan dat deze nieuwsfeed-items door iedereen worden gezien. Door interactie met deze nieuwsfeed te hebben, optimaliseren deze gebruikers elkaars sociale bewijs.
Als een gebruiker probeert een andere gebruiker te informeren over een misleidende of valse item, verhoogt de enkele actie van opmerking of interactie met de nieuwsfeed alleen de oorspronkelijke gebruikersbetrokkenheidstijd. Deze feedbacklus zorgt ervoor dat Facebook de gebruiker verder betrekt met extra nepnieuws.
Dit creëert een echo-kamer, een filterbubbel waarin een gebruiker wordt getraind om alleen te geloven in wat hij ziet. Waarheid is simpelweg een illusie.
Ernst van het probleem
Meer dan 10 miljoen mensen interacteerden met een nieuwsfeed waarin stond dat paus Franciscus zich uitsprak voor Trumps verkiezing in 2016. Er was geen bewijs voor dit, het was gewoon een nepnieuwsverhaal dat uit Rusland kwam, maar dit was het meest gedeelde nieuws op Facebook in de drie maanden voorafgaand aan de verkiezingen van 2016.
Het nieuwsitem werd gegenereerd door een Russische trollenfabriek die zichzelf de “Internet Research Agency” noemt. Deze zelfde organisatie was verantwoordelijk voor het promoten en delen op Twitter en Facebook van racistische artikelen, ten gunste van het demoniseren van Black Lives Matter, en het verspreiden van nepnieuwsitems met valse claims over Amerikaanse politici.
De Select Committee on Intelligence bracht een 85 pagina’s tellend rapport uit over Russische actieve maatregelen en inmenging, waarvan het grootste deel bestond uit de verspreiding van verdeeld nepnieuws en propaganda die tot doel had de verkiezingen van 2016 te beïnvloeden.
Naar voren spoelen naar de verkiezingen van 2020 en het probleem is alleen maar verergerd. In september 2020, na een tip van de FBI, beëindigden Facebook en Twitter socialemediarekeningen voor een nieuwsorganisatie met de naam PeaceData, die gelinkt is aan Ruslands staatspropaganda-inspanningen.
Helaas is het beëindigen van rekeningen een tijdelijke en ineffectieve oplossing. Russische rekeningen nemen vaak de vorm aan van vriendenverzoeken, vaak gewalgd door vrouwen met aantrekkelijke profielen die mannen targeten, of met gehackte gebruikersrekeningen met een geschiedenis van reguliere berichten. Deze gehackte rekeningen schakelen langzaam over naar meer politieke berichten, totdat ze worden gedomineerd door propaganda of complottheorieën.
Een onverwachte gebruiker kan zich niet bewust zijn dat een vriendenrekening is gehackt. Als die gebruiker kwetsbaar is voor complottheorieën, kan hij interactie hebben met het nepnieuwsitem, de Russische troll, die vaak een bot is, biedt dan extra sociale bewijs in de vorm van likes of opmerkingen.
Kwetsbare gebruikers zijn vaak degenen die het minst begrijpen hoe technologie en AI werken. De demografie van 65 jaar en ouder, die het meest waarschijnlijk gaat stemmen, is ook het meest waarschijnlijk om nepnieuws te verspreiden, zoals gerapporteerd door de New York Times.
Volgens de studie deelden Facebook-gebruikers van 65 jaar en ouder zeven keer zoveel artikelen van nepnieuwswebsites als volwassenen van 29 jaar en jonger. Een gebrek aan digitale mediageletterdheid maakt deze leeftijdsgroep onvoorbereid op een nieuwsfeed die niet is gebaseerd op feiten of op nauwkeurigheid, maar exclusief op gebruikersbetrokkenheid.
Slechte actoren maken misbruik van Facebook’s aanbevelingsengine, die onze cognitieve bias tegen ons exploiteert. Deze zelfde organisaties hebben de misbruik van Facebook’s AI geoptimaliseerd om complottheorieën en propaganda te verspreiden. Complottheorieën die op het eerste gezicht onschuldig lijken, worden vaak gebruikt als trechters naar witte suprematie, verre rechtse nationalisme, of QAnon een bizarre complottheorie waarin Trump de wereld probeert te redden van liberale pedofielen, een complot dat geen enkele basis in de realiteit heeft.
Samenvatting
Facebook is duidelijk zich ervan bewust dat er een probleem is en heeft publiekelijk een strategie aangekondigd die zich richt op het verwijderen van inhoud die Facebook’s Community Standards schendt. Het probleem is dat het verwijderen van rekeningen een tijdelijke noodoplossing is die ineffectief is wanneer rekeningen in bulk worden gegenereerd door bots, of wanneer gebruikersrekeningen op grote schaal worden gehackt. Het lost ook het probleem niet op dat de meeste delingen zijn door reguliere gebruikers die zich niet bewust zijn dat ze desinformatie verspreiden.
Het toevoegen van waarschuwingslabels dient alleen om complottheorieën te versterken dat socialemediareuzen bevooroordeeld zijn tegen conservatieven, die het meest gevoelig zijn voor nepnieuws.
De oplossing moet een nieuwe aanbevelingsengine zijn die niet alleen gebruikersbetrokkenheid meet, maar geoptimaliseerd is voor gebruikersgeluk door waarheid te leveren en zelfbewustzijn te bevorderen.
In de tussentijd moet Facebook het pad volgen dat Twitter heeft genomen om politieke advertenties te verbieden.
Tenslotte moet een belangrijke vraag worden gesteld. Als mensen geen keuze meer hebben over het nieuws dat ze zien, wanneer houdt het op een aanbeveling te zijn en wanneer wordt het geestelijke controle?
Aanbevolen leesmateriaal:
Russische actieve maatregelen en inmenging – Rapport van de Select Committee on Intelligence United States Senate.
Het schokkende papier dat de einde van de democratie voorspelt – Door Rick Shenkman, oprichter van George Washington University’s History News Network.
Oudere mensen delen nepnieuws op Facebook vaker – Door de New York Times












