stub Hvordan Facebooks AI sprer feilinformasjon og truer demokratiet - Unite.AI
Kontakt med oss

Tankeledere

Hvordan Facebooks AI sprer feilinformasjon og truer demokratiet

mm
oppdatert on

Dan Tunkelang som hadde tilsyn med AI-forskning på LinkedIn, uttalte: "I det øyeblikket anbefalinger har makt til å påvirke beslutninger, blir de et mål for spammere, svindlere og andre mennesker med mindre enn edle motiver."

Dette er dilemmaet sosiale medier som Facebook opplever. Facebook bruker implisitt tilbakemelding for å spore klikk, visninger og annen målbar brukeratferd. Dette brukes til å designe det som identifiseres som en "anbefalingsmotor", et AI-system som har den ultimate makten til å bestemme hvem som ser hvilket innhold og når.

Facebook har optimert sin anbefalingsmotor for å maksimere brukerengasjementet, som måles ved hvor mye tid som brukes limt til Facebook-plattformen. Maksimering av tid prioriteres over enhver annen variabel, inkludert kvaliteten eller nøyaktigheten til det som anbefales.

Systemet er designet for å belønne sensasjonelle overskrifter som engasjerer brukere ved å utnytte kognitiv skjevhet, selv om disse overskriftene tilfeldigvis er skrevet av russiske troll med den hensikt å splitte samfunnet eller svaie politiske valg.

Hvordan Facebook bruker AI

Det er mangel på bevissthet om hvordan Facebook bruker AI for å bestemme hva brukerne ser og samhandler med. Man må først forstå hva bekreftelsesskjevhet er. Psychology Today beskriver dette som:

Bekreftelsesbias er tendensen til å søke etter, tolke, favorisere og huske informasjon på en måte som bekrefter eller støtter ens tidligere tro eller verdier.

Facebook forstår at det er mer sannsynlig at brukere klikker på nyheter som inngår i den menneskelige tendensen til å søke bekreftelsesskjevhet. Dette setter en farlig presedens for både spredningen av konspirasjonsteorier og for å lage ekkokamre der brukere skjeen mates utelukkende med det de ønsker å se uavhengig av nøyaktighet, eller samfunnsmessig påvirkning av det som blir sett.

A studie ved MIT kunne demonstrere at falske nyheter på Twitter sprer seg 6 ganger raskere enn ekte nyheter.

Dette betyr at både Twitter og Facebook kan bevæpnes. Mens Twitter lar alle med vilje følge feeds med smale eller partiske synspunkter, tar Facebook dette et skritt videre. En bruker på Facebook har for øyeblikket ingen måte å kontrollere eller måle hva som blir sett, dette styres helt av Facebooks anbefalingsmotor, hvordan den måler brukerengasjement, og hvordan den optimaliserer for det samme brukerengasjementet.

Facebook prøver å forme og forutsi brukernes ønsker. Facebook anslår i hvilken grad en bruker vil like eller mislike en nyhet som brukeren ennå ikke har opplevd. For å unngå tap av brukerengasjement velger Facebook da å omgå nyhetssaker som kan redusere engasjementsnivået, og velger i stedet å engasjere brukeren ved å mate nyheter som mater bekreftelsesskjevheten, og sikrer flere klikk, kommentarer, likes og aksjer.

Facebook bruker også automatisert samarbeidsfiltrering av historiske brukerhandlinger og meninger for automatisk å matche deltakere (venner) med lignende meninger. Facebook bruker en hjelpefunksjon som automatisk og matematisk forutsier og rangerer preferansene dine for elementer du vil se.

Dette får brukere til å falle i et kaninhull, de er fanget i falske nyheter, og blir matet med innhold som forsterker deres skjevhet. Innholdet som presenteres er iboende utformet med mål om å påvirke hva du klikker på. Tross alt, hvis du tror på konspirasjonen om at Bill Gates forsøker å mikrochipe den menneskelige befolkningen ved å bruke vaksiner, hvorfor skal Facebook presentere deg for motstridende bevis som kan få deg til å koble fra plattformen? Hvis du støtter en bestemt politisk kandidat, hvorfor skal Facebook tilby nyheter som kan motsi dine positive syn på denne samme kandidaten?

Som om dette ikke var tilstrekkelig engasjerer Facebook også det som er kjent som "sosial bevis". Sosialt bevis er konseptet om at folk vil følge handlingene til massene. Tanken er at siden så mange andre mennesker oppfører seg på en bestemt måte, må det være riktig oppførsel.

Facebook gir dette sosiale beviset i sammenheng med likes, kommentarer eller delinger. Siden bare visse venner kan se nyhetsfeedelementet (med mindre de spesifikt søker i en brukers nyhetsfeed), tjener det sosiale beviset ganske enkelt til å forsterke bekreftelsesskjevheten.

Facebook bruker også filterbobler å begrense eksponering for motstridende, motstridende og/eller utfordrende synspunkter.

Facebook Ads

Intetanende Facebook-brukere kan være klikke på annonser uten å være klar over det at de blir presentert med annonser. Grunnen til dette er enkel, hvis det er en annonse, vil kun den første personen som får annonsen se annonsens ansvarsfraskrivelse. Hvis den brukeren deler annonsen, ser alle på vennelisten ganske enkelt "delingen" som et nyhetsfeedelement da Facebook med vilje dropper annonsefraskrivelsen. Umiddelbart faller brukerne på vakt, de klarer ikke å skille mellom hva som er en annonse og hva som organisk ville ha dukket opp på nyhetsstrømmen deres.

Facebook-aksjer

Dessverre blir ting verre. Hvis en bruker har 1000 venner som samtidig deler innhold, vil anbefalingsmotoren prioritere innhold fra minoriteten som deler de samme synspunktene, selv om disse ofte består av uprøvde konspirasjonsteorier. Brukeren vil da være under illusjonen om at disse nyhetsfeedelementene blir sett av alle. Ved å engasjere seg i denne nyhetsstrømmen, optimerer disse brukerne hverandres sosiale bevis.

Skulle en bruker forsøke å opplyse en annen bruker om en villedende eller falsk gjenstand, vil selve handlingen å kommentere eller engasjere seg i nyhetsstrømmen øke den opprinnelige brukerens engasjementstid. Denne tilbakemeldingssløyfen får Facebook til å forsterke å engasjere denne brukeren med flere falske nyheter.

Dette forårsaker et ekkokammer, en filterboble der en bruker er opplært til å bare tro på det de ser. Sannheten er rett og slett en illusjon.

Problemets alvor

Over 10 millioner mennesker engasjert med en nyhetsstrøm hevdet at pave Frans gikk ut for Trumps valg i 2016. Det var ingen bevis for dette, det var rett og slett en falsk nyhetssak som kom ut av Russland, men dette var den mest delte nyhetssaken på Facebook i løpet av de tre månedene før. frem til valget i 2016.

Nyheten ble generert av en russisk trollfarm som kaller seg "Internet Research Agency". Denne samme organisasjonen var ansvarlig for å promotere og dele på Twitter og Facebook artikler om raselokking, til fordel for å demonisere Black Lives Matter, og bevæpne falske nyheter som sprer falske påstander om amerikanske politikere.

Den utvalgte komiteen for etterretning ga ut en 85-siderapport beskriver russiske aktive tiltakskampanjer og innblanding, hvorav hoveddelen involverte spredning av splittende falske nyheter, og propaganda som utelukkende hadde til hensikt å påvirke det amerikanske valget i 2016.

Spol frem til valget i 2020 og problemet har bare forsterket seg. I september 2020 etter et FBI-tips Facebook og Twitter avsluttede sosiale medier-kontoer for en nyhetsorganisasjon som går under navnet PeaceData, som er knyttet til Russlands statlige propagandainnsats.

Dessverre er det en midlertidig og ineffektiv løsning å stenge kontoer. Russiske kontoer har ofte form av venneforespørsler, ofte avsky av kvinner med attraktive profiler som retter seg mot menn, ellers med kaprede brukerkontoer med en historie med vanlige innlegg. Disse kaprede kontoene skifter sakte til mer politiske poster, inntil de domineres av propaganda eller konspirasjonsteorier.

En intetanende bruker kan være uvitende om at en vennekonto har blitt kompromittert. Hvis denne brukeren er sårbar for konspirasjonsteorier, kan de engasjere seg i den falske nyhetsfeeden, det russiske trollet som ofte er en bot, gir ytterligere sosialt bevis i form av likes eller kommentarer.

Sårbare brukere er ofte de som minst forstår hvordan teknologi og AI fungerer. Den over 65-demografien som er befolkningen som mest sannsynlig vil stemme, er også den mest sannsynlige til å spre falske nyheter som rapportert av New York Times.

Ifølge studien postet Facebook-brukere på 65 år og eldre syv ganger så mange artikler fra falske nyhetsnettsteder som voksne 29 år og yngre. Mangel på digital mediekunnskap gjør at denne aldersgruppen er uforberedt på en nyhetsfeed som ikke er basert på fakta eller nøyaktighet, men utelukkende på brukerengasjement.

Dårlige skuespillere utnytter Facebooks anbefalingsmotor som utnytter våre kognitive skjevheter mot oss. De samme organisasjonene har optimalisert misbruket av Facebooks AI for å spre konspirasjonsteorier og propaganda. Konspirasjonsteorier som kan virke uskyldige i begynnelsen, brukes ofte som trakter til hvit overherredømme, ytre høyreorientert nasjonalisme, eller QAnon en bisarr konspirasjonsteori som involverer Trump som prøver å redde verden fra liberale pedofile, en konspirasjon som har null grunnlag i virkeligheten.

Oppsummering

Facebook er tydelig klar over at det er et problem, og det har de gjort offentlig annonserte en strategi som fokuserer på å fjerne innhold som bryter med Facebooks fellesskapsstandarder. Problemet er at sletting av kontoer er et midlertidig stopptiltak som er ineffektivt når kontoer genereres i bulk av roboter, eller massehacking av brukerkontoer. Det løser heller ikke problemet at mesteparten av delingen skjer av vanlige brukere som ikke er klar over at de sprer feilinformasjon.

Å legge til advarselsetiketter tjener ganske enkelt til å forsterke konspirasjonsteorier om at sosiale medier-giganter er partiske mot konservative som er de mest utsatt for falske nyheter.

Løsningen må være en ny anbefalingsmotor som måler ikke bare brukerengasjement, men er optimalisert for brukerglede ved å levere sannhet og fremme økt selvbevissthet.

I mellomtiden bør Facebook følge veien som Twitter tok til å forby politiske annonser.

Til slutt må et viktig spørsmål stilles. Hvis folk ikke lenger har et valg på nyhetene de ser, når slutter det å være en anbefaling og når blir det tankekontroll?

Anbefalt lesning:

Russiske aktive tiltakskampanjer og forstyrrelser – Rapport fra USAs utvalgte etterretningskomité.

Det sjokkerende papiret som forutsier slutten på demokratiet - Av Rick Shenkman, grunnlegger av George Washington Universitys History News Network.

Eldre mennesker deler falske nyheter på Facebook Mer – Av New York Times

En grunnlegger av unite.AI og et medlem av Forbes teknologiråd, Antoine er en futurist som brenner for fremtiden til AI og robotikk.

Han er også grunnleggeren av Securities.io, et nettsted som fokuserer på å investere i forstyrrende teknologi.