Vođe misli
Kako Facebookova umjetna inteligencija širi dezinformacije i prijeti demokraciji

Dan Tunkelang, koji je nadgledao istraživanje umjetne inteligencije na LinkedInu, izjavio je: "Onog trenutka kada preporuke imaju moć utjecati na odluke, one postaju meta spamera, prevaranata i drugih ljudi s manje plemenitim motivima."
Ovo je dilema s kojom se suočavaju tvrtke društvenih medija poput Facebooka. Facebook koristi implicitna povratna informacija za praćenje klikova, pregleda i drugih mjerljivih ponašanja korisnika. Ovo se koristi za dizajniranje onoga što je identificirano kao "mehanizam za preporuke", AI sustav koji ima konačnu moć odlučivanja tko vidi koji sadržaj i kada.
Facebook je optimizirao svoj mehanizam za preporuku kako bi maksimalno povećao angažman korisnika koji se mjeri količinom vremena koje provedu zalijepljeni za Facebook platformu. Maksimiziranje vremena ima prioritet nad bilo kojom drugom varijablom, uključujući kvalitetu ili točnost onoga što se preporučuje.
Sustav je dizajniran za nagrađivanje senzacionalističkih naslova koji angažiraju korisnike iskorištavanjem kognitivne pristranosti, čak i ako su te naslove napisali ruski trolovi s namjerom podjele društva ili utjecaja na političke izbore.
Kako Facebook koristi AI
Postoji nedostatak svijesti o tome kako Facebook koristi umjetnu inteligenciju za odlučivanje o tome što njegovi korisnici vide i s čime komuniciraju. Najprije se mora razumjeti što je pristranost potvrde. Psychology Today opisuje ovo kao:
Pristranost potvrde je tendencija traženja, tumačenja, favoriziranja i prisjećanja informacija na način koji potvrđuje ili podupire nečija prethodna uvjerenja ili vrijednosti.
Facebook razumije da je vjerojatnije da će korisnici kliknuti na vijesti što potiče ljudsku sklonost traženju pristranosti potvrde. Ovo postavlja opasan presedan za širenje teorija zavjere i za stvaranje komora za odjek u kojima se korisnicima daje isključivo ono što žele vidjeti bez obzira na točnost ili društveni utjecaj onoga što se vidi.
A studija MIT-a uspio je pokazati da se lažne vijesti na Twitteru šire 6 puta brže od pravih vijesti.
To znači da se i Twitter i Facebook mogu koristiti kao oružje. Dok Twitter svakome omogućuje da namjerno pratiti feedove s uskim ili pristranim stajalištima, Facebook ide korak dalje. Korisnik na Facebooku trenutno nema načina da kontrolira ili mjeri ono što se vidi, to u potpunosti kontrolira Facebookov mehanizam za preporuke, način na koji mjeri angažman korisnika i način na koji se optimizira za taj isti angažman korisnika.
Facebook pokušava oblikovati i predvidjeti želje svojih korisnika. Facebook procjenjuje u kojoj će se mjeri korisniku svidjeti ili ne svidjeti vijest koju korisnik još nije iskusio. Kako bi izbjegao gubitak u angažmanu korisnika, Facebook tada odabire zaobići stavke vijesti koje mogu smanjiti razinu angažmana i umjesto toga odabire angažirati korisnika unosom stavki s vijestima koje hrane pristranost potvrde, osiguravajući više klikova, komentara, lajkova i dionice.
Facebook također koristi automatizirano kolaborativno filtriranje povijesnih radnji i mišljenja korisnika kako bi automatski spojio sudionike (prijatelje) sa sličnim mišljenjima. Facebook koristi pomoćnu funkciju koja automatski i matematički predviđa i rangira vaše preferencije za stavke koje želite vidjeti.
Zbog toga korisnici padaju u zečju rupu, zarobljeni su u lažnim vijestima, hranjeni su sadržajem koji pojačava njihovu pristranost. Prikazani sadržaj je sam po sebi osmišljen s ciljem da utječe na ono što kliknete. Uostalom, ako vjerujete u zavjeru da Bill Gates pokušava mikročipirati ljudsku populaciju pomoću cjepiva, zašto bi vam Facebook trebao prezentirati kontradiktorne dokaze koji bi vas mogli natjerati da se povučete s platforme? Ako podržavate određenog političkog kandidata zašto bi Facebook trebao nuditi vijesti koje bi mogle biti u suprotnosti s vašim pozitivnim stavovima o tom istom kandidatu?
Kao da to nije dovoljno, Facebook također uključuje ono što je poznato kao “društveni dokaz”. Društveni dokaz je koncept da će ljudi slijediti akcije masa. Ideja je da, budući da se toliko drugih ljudi ponaša na određeni način, to mora biti ispravno ponašanje.
Facebook pruža ovaj društveni dokaz u kontekstu lajkova, komentara ili dijeljenja. Budući da samo određeni prijatelji mogu vidjeti stavku feeda vijesti (osim ako posebno ne pretražuju feed korisnika), društveni dokaz jednostavno služi za pojačavanje pristranosti potvrde.
Facebook također koristi filterski mjehurići kako bi se ograničilo izlaganje proturječnim, proturječnim i/ili izazovnim stajalištima.
Facebook Oglasi
Korisnici Facebooka koji ništa ne sumnjaju mogu biti klikati na oglase bez da ste svjesni da im se prikazuju oglasi. Razlog za to je jednostavan, ako postoji oglas, samo će prva osoba kojoj se oglas prikaže vidjeti odricanje od odgovornosti za oglas. Ako taj korisnik podijeli oglas, svi na njegovom popisu prijatelja jednostavno vide "dijeljenje" kao stavku feeda vijesti jer Facebook namjerno izostavlja izjavu o odricanju od odgovornosti za oglas. Korisnici odmah spuštaju oprez, ne mogu razlikovati što je oglas od onoga što bi se organski pojavilo na njihovom newsfeedu.
Facebook Dijeljenja
Nažalost, stvari se pogoršavaju. Ako korisnik ima 1000 prijatelja koji istovremeno dijele sadržaj, mehanizam za preporuku će dati prednost sadržaju manjine koji dijele iste stavove, čak i ako se oni često sastoje od nedokazanih teorija zavjere. Korisnik će tada biti u iluziji da te stavke feeda vijesti vide svi. Angažiranjem s ovim feedom vijesti ovi korisnici međusobno optimiziraju društveni dokaz.
Ako korisnik pokuša prosvijetliti drugog korisnika o zavaravajućoj ili lažnoj stavci, sam čin komentiranja ili interakcije s feedom vijesti jednostavno povećava izvorno vrijeme angažiranja korisnika. Ova petlja povratnih informacija uzrokuje da Facebook pojača angažiranje tog korisnika dodatnim lažnim vijestima.
To uzrokuje eho komoru, mjehurić filtera u kojem je korisnik obučen da vjeruje samo u ono što vidi. Istina je jednostavno iluzija.
Ozbiljnost problema
Preko milion ljudi angažiran s feedom vijesti tvrdeći da je papa Franjo izašao u prilog Trumpovom izboru 2016. Nije bilo dokaza za to, bila je to jednostavno lažna vijest koja je došla iz Rusije, no ipak je ovo bila najdijeljenija vijest na Facebooku u tri mjeseca do izbora 2016.
Vijest je generirala ruska farma trolova koja sebe naziva "Internet Research Agency". Ista ta organizacija bila je odgovorna za promicanje i dijeljenje članaka o mamljenju rase na Twitteru i Facebooku, u korist demoniziranja života crnaca koji su važni, i širenje lažnih vijesti koje šire lažne tvrdnje o američkim političarima.
Izborni odbor za obavještajne poslove objavio je Izvješće od 85 stranica s pojedinostima o kampanjama i uplitanju ruskih aktivnih mjera, od kojih je većina uključivala širenje lažnih vijesti koje izazivaju podjele i propagandu koja je imala isključivu namjeru utjecati na američke izbore 2016.
Brzo naprijed do izbora 2020. i problem se samo pojačao. U rujnu 2020. nakon dojave FBI-a Facebook & Twitter ukinuo račune na društvenim mrežama za novinsku organizaciju pod imenom PeaceData, koja je povezana s naporima ruske državne propagande.
Nažalost, gašenje računa je privremeno i neučinkovito rješenje. Ruski računi često imaju oblik zahtjeva za prijateljstvo, često zgroženi ženama s atraktivnim profilima koji ciljaju na muškarce, ili pak s otetim korisničkim računima s poviješću redovitih objava. Ovi oteli računi polako se prebacuju na više političke položaje, sve dok njima ne zavladaju propaganda ili teorije zavjere.
Korisnik koji ništa ne sumnja možda nije svjestan da je račun prijatelja ugrožen. Ako je taj korisnik osjetljiv na teorije zavjere, može se uključiti u lažni newsfeed, ruski trol koji je često bot, a zatim daje dodatni društveni dokaz u obliku lajkova ili komentara.
Ranjivi korisnici često su oni koji najmanje razumiju kako tehnologija i AI funkcioniraju. Demografska grupa starija od 65 godina, koja je populacija koja će najvjerojatnije glasati, također je najvjerojatnije širiti lažne vijesti kao prenosi New York Times.
Prema studiji, korisnici Facebooka u dobi od 65 godina i stariji objavili su sedam puta više članaka s web stranica s lažnim vijestima nego odrasli od 29 godina i mlađi. Nedostatak digitalne medijske pismenosti čini ovu dobnu skupinu nespremnom za newsfeed koji nije utemeljen na činjenicama ili točnosti, već isključivo na angažmanu korisnika.
Loši glumci iskorištavaju Facebookov mehanizam za preporučivanje koji iskorištava naše kognitivne predrasude protiv nas. Te iste organizacije optimizirale su zlouporabu Facebookove umjetne inteligencije za širenje teorija zavjere i propagande. Teorije zavjere koje se isprva mogu činiti nedužnima često se koriste kao kanali za nadmoć bijele rase, krajnje desničarski nacionalizam ili QAnon bizarna teorija zavjere koja uključuje Trumpa koji pokušava spasiti svijet od liberalnih pedofila, zavjera koja nema temelja u stvarnosti.
Rezime
Facebook je očito svjestan da problem postoji i javno ga ima najavio strategiju koji se fokusira na uklanjanje sadržaja koji krši Facebookove standarde zajednice. Problem je u tome što je brisanje računa privremena privremena mjera koja je neučinkovita kada račune masovno generiraju botovi ili masovno hakiranje korisničkih računa. Također ne rješava problem što većinu dijeljenja čine obični korisnici koji nisu svjesni da šire dezinformacije.
Dodavanje oznaka upozorenja jednostavno služi za jačanje teorija zavjere da su divovi društvenih medija pristrani protiv konzervativaca koji su najviše osjetljiv na lažne vijesti.
Rješenje treba biti novi mehanizam za preporuku koji mjeri ne samo angažman korisnika, već je optimiziran za zadovoljstvo korisnika isporukom istine i promicanjem poboljšane samosvijesti.
U međuvremenu, Facebook bi trebao slijediti put koji Twitter je zabranio političke oglase.
Na kraju, treba postaviti važno pitanje. Ako ljudi više nemaju izbora o vijestima koje gledaju, kada one prestaju biti preporuka i kada postaju kontrola uma?
Preporučena literatura:
Ruske kampanje aktivnih mjera i uplitanja – Izvješće Posebnog odbora za obavještajne poslove Senata Sjedinjenih Država.
Šokantni dokument koji predviđa kraj demokracije - Od Rick Shenkman, osnivač History News Networka Sveučilišta George Washington.
Stariji ljudi dijele lažne vijesti na Facebooku Više – New York Times