Lideri de opinie
Cum Facebook’s AI Răspândește Informații False și Amenință Democrația

Dan Tunkelang, care a supervizat cercetarea de inteligență artificială la LinkedIn, a declarat: “În momentul în care recomandările au puterea de a influența deciziile, ele devin o țintă pentru spammatori, escroci și alte persoane cu motive mai puțin nobile.”
Acesta este dilema pe care o experimentează companiile de social media, cum ar fi Facebook. Facebook folosește feedback implicit pentru a urmări clicurile, vizualizările și alte comportamente măsurabile ale utilizatorilor. Acesta este utilizat pentru a proiecta ceea ce este identificat ca un “motor de recomandare”, un sistem de inteligență artificială care are puterea finală de a decide cine vede ce conținut și când.
Facebook și-a optimizat motorul de recomandare pentru a maximiza implicarea utilizatorilor, care este măsurată de cantitatea de timp petrecută pe platforma Facebook. Maximizarea timpului are prioritate față de orice altă variabilă, inclusiv calitatea sau acuratețea conținutului recomandat.
Sistemul este proiectat pentru a recompensa titlurile sensaționaliste care angajează utilizatorii prin exploatarea prejudecăților cognitive, chiar dacă aceste titluri sunt scrise de trolli ruși cu intenția de a divide societatea sau de a influența alegerile politice.
Cum Facebook Utilizează Inteligența Artificială
Există o lipsă de conștientizare cu privire la modul în care Facebook utilizează inteligența artificială pentru a decide ce conținut vor vedea și cu ce vor interacționa utilizatorii. Mai întâi, trebuie să înțelegem ce este prejudecata de confirmare. Psychology Today descrie acest lucru ca:
Prejudecata de confirmare este tendința de a căuta, interpreta, favoriza și reaminti informații într-un mod care confirmă sau susține credințele sau valorile anterioare.
Facebook înțelege că utilizatorii sunt mai predispuși să cliqueze pe știri care alimentează tendința umană de a căuta prejudecata de confirmare. Acest lucru stabilește un precedent periculos atât pentru răspândirea teoriilor conspirației, cât și pentru crearea unor camere de ecou în care utilizatorii sunt hrăniți exclusiv cu ceea ce vor să vadă, indiferent de acuratețe sau de impactul social al ceea ce este văzut.
Un studiu al MIT a demonstrat că știrile false pe Twitter se răspândesc de șase ori mai repede decât știrile reale.
Acest lucru înseamnă că atât Twitter, cât și Facebook pot fi folosite ca arme. În timp ce Twitter permite oricui să urmărească feed-uri cu puncte de vedere înguste sau părtinice, Facebook merge mai departe. Un utilizator pe Facebook nu are în prezent nicio modalitate de a controla sau măsura ce este văzut, acest lucru fiind controlat în întregime de motorul de recomandare al Facebook, de modul în care măsoară implicarea utilizatorilor și de modul în care optimizează această implicare.
Facebook încearcă să modeleze și să prevadă dorințele utilizatorilor săi. Facebook estimează în ce măsură un utilizator va aprecia sau nu un articol de știri care nu a fost încă experimentat de utilizator. Pentru a evita o pierdere a implicării utilizatorilor, Facebook alege să ocolească articolele de știri care ar putea reduce nivelul de implicare și alege în schimb să angajeze utilizatorul prin alimentarea cu știri care alimentează prejudecata de confirmare, asigurând mai multe clicuri, comentarii, aprecieri și distribuiri.
Facebook utilizează, de asemenea, filtrarea colaborativă automată a acțiunilor și opiniilor istorice ale utilizatorilor pentru a asocia automat participanții (prieteni) cu opinii similare. Facebook utilizează o funcție utilitară care prezice și clasifică matematic preferințele dumneavoastră pentru articolele pe care le doriți să le vedeți.
Acest lucru face ca utilizatorii să cadă într-o cursă, fiind prinși în știri false, fiind alimentați cu conținut care întărește prejudecățile lor. Conținutul prezentat este în mod inerent proiectat cu scopul de a influența ce clicuri faceți. Dacă credeți în conspirația că Bill Gates încearcă să microcipizeze populația umană prin vaccinuri, de ce ar trebui Facebook să vă prezinte dovezi contradictorii care v-ar putea face să vă deconectați de pe platformă? Dacă susțineți un anumit candidat politic, de ce ar trebui Facebook să vă ofere știri care contrazic opinia dvs. pozitivă despre acel candidat?
Ca și cum acest lucru nu ar fi suficient, Facebook se angajează și în ceea ce se numește “dovadă socială”. Dovada socială este conceptul că oamenii vor urma acțiunile mulțimii. Ideea este că, deoarece atât de mulți oameni se comportă într-un anumit mod, acesta trebuie să fie comportamentul corect.
Facebook oferă această dovadă socială în contextul aprecierilor, comentariilor sau distribuirilor. Deoarece doar anumiți prieteni pot vedea articolul de știri (dacă nu caută în mod specific fișa de știri a unui utilizator), dovezile sociale servesc doar pentru a întări prejudecata de confirmare.
Facebook utilizează, de asemenea, bule de filtrare pentru a limita expunerea la puncte de vedere contradictorii, contrare sau provocatoare.
Reclamele Facebook
Utilizatorii neștiutori de Facebook pot face clic pe reclame fără să știe că li se prezintă reclame. Motivul este simplu, dacă există o reclamă, doar prima persoană care primește reclama va vedea disclaimerul reclamei. Dacă utilizatorul distribuie reclama, toți cei de pe lista de prieteni vor vedea doar “distribuirea” ca articol de știri, deoarece Facebook intenționează să scape de disclaimerul reclamei. Immediat, utilizatorii își pierd garda, nu pot să diferențieze între ce este o reclamă și ce ar fi apărut organic în fluxul de știri.
Distribuirile Facebook
Din nefericire, lucrurile se înrăutățesc. Dacă un utilizator are 1000 de prieteni care distribuie conținut în același timp, motorul de recomandare va prioriza conținutul din partea minorității care împărtășește aceleași opinii, chiar dacă acestea constau adesea în teorii ale conspirației nefondate. Utilizatorul va fi sub iluzia că aceste articole de știri sunt văzute de toată lumea. Prin interacțiunea cu această știre, acești utilizatori optimizează reciproc dovezile sociale.
Dacă un utilizator încearcă să lămurească un alt utilizator despre un articol de știri înșelător sau fals, actul de a comenta sau de a interacționa cu articolul de știri crește doar timpul de implicare al utilizatorului original. Acest buclă de feedback face ca Facebook să întărească angajarea utilizatorului cu știri false suplimentare.
Acest lucru creează o cameră de ecou, o bulă de filtrare în care un utilizator este antrenat să creadă doar ceea ce vede. Adevărul este pur și simplu o iluzie.
Gravitatea Problemei
Peste 10 milioane de oameni au interacționat cu un articol de știri care afirma că Papa Francisc a ieșit în sprijinul alegerii lui Trump în 2016. Nu a existat nicio dovadă a acestui lucru, a fost doar o știre falsă care a provenit din Rusia, dar aceasta a fost cea mai distribuită știre pe Facebook în cele trei luni care au precedat alegerile din 2016.
Articolul de știri a fost generat de o fermă de trolli ruși care se numește “Agenția de Cercetare pe Internet”. Aceeași organizație a fost responsabilă pentru promovarea și distribuirea pe Twitter și Facebook a articolelor care instigă la ură împotriva mișcării Black Lives Matter și a răspândit știri false care au făcut afirmații false despre politicienii americani.
Comitetul Special pentru Informații a lansat un raport de 85 de pagini care detaliază campaniile rusești de măsuri active și interferențe, majoritatea cărora au implicat răspândirea de știri false și propagandă care a avut scopul de a influența alegerile din 2016 din SUA.
Sărit înainte la alegerile din 2020 și problema s-a înrăutățit. În septembrie 2020, după un sfat de la FBI, Facebook și Twitter au suspendat conturile de social media pentru o organizație de știri care se numește PeaceData, legată de eforturile de propagandă de stat ale Rusiei.
Din nefericire, închiderea conturilor este o soluție temporară și ineficientă. Conturile rusești îmbracă adesea forma unor solicitări de prietenie, adesea de femei cu profile atractive care țintesc bărbați, sau conturi de utilizator furate cu o istorie de postări regulate. Aceste conturi furate se schimbă încet la postări politice, până când sunt dominate de propagandă sau teorii ale conspirației.
Un utilizator neștiutor poate să nu știe că contul unui prieten a fost compromis. Dacă utilizatorul este vulnerabil la teorii ale conspirației, el poate interacționa cu articolul de știri fals, trollul rus, care este adesea un bot, oferă apoi dovezi sociale suplimentare sub forma aprecierilor sau comentariilor.
Utilizatorii vulnerabili sunt adesea cei care înțeleg cel mai puțin cum funcționează tehnologia și inteligența artificială. Populația peste 65 de ani, care este cea mai probabilă să voteze, este și cea mai probabilă să răspândească știri false, așa cum a raportat New York Times.
Conform studiului, utilizatorii de Facebook cu vârsta peste 65 de ani au postat de șapte ori mai multe articole de pe site-urile de știri false decât adulții cu vârsta sub 29 de ani. Lipsa de alfabetizare mediatică digitală face ca acest grup să nu fie pregătit pentru un flux de știri care nu se bazează pe fapte sau pe acuratețe, ci exclusiv pe implicarea utilizatorilor.
Actori răi profită de motorul de recomandare al Facebook, care exploatează prejudecățile noastre cognitive împotriva noastră. Aceleași organizații au optimizat abuzul de inteligența artificială a Facebook pentru a răspândi teorii ale conspirației și propagandă. Teorii ale conspirației care pot părea inofensive la început sunt adesea folosite ca tuneluri către supremația albă, naționalismul de extremă dreapta sau QAnon, o teorie a conspirației ciudată care implică încercarea lui Trump de a salva lumea de pedofili liberali, o conspirație care nu are nicio bază în realitate.
Rezumat
Facebook este clar conștient că există o problemă și a anunțat public o strategie care se concentrează pe eliminarea conținutului care încalcă standardele comunității Facebook. Problema este că ștergerea conturilor este o măsură temporară și ineficientă atunci când conturile sunt generate în masă de boti sau atunci când conturile de utilizator sunt compromise în masă. Acest lucru nu rezolvă nici problema că majoritatea distribuirilor sunt făcute de utilizatori obișnuiți care nu știu că răspândesc informații false.
Adăugarea de etichete de avertizare servește doar pentru a întări teorii ale conspirației că gigantii mass-media socială sunt împotriva conservatorilor, care sunt cei mai vulnerabili la știri false.
Soluția trebuie să fie un nou motor de recomandare care măsoară nu numai implicarea utilizatorilor, ci este optimizat pentru fericirea utilizatorilor prin furnizarea de adevăr și promovarea conștientizării de sine.
Între timp, Facebook ar trebui să urmeze calea pe care a urmat-o Twitter pentru a interzice reclamele politice.
În cele din urmă, o întrebare importantă trebuie să fie pusă. Dacă oamenii nu mai au nicio alegere cu privire la știrile pe care le văd, când încetează să mai fie o recomandare și când devine control al minții?
Citire Recomandată:
Campaniile rusești de măsuri active și interferențe – Raportul Comitetului Special pentru Informații al Senatului Statelor Unite.
Articolul șocant care prezice sfârșitul democrației – De Rick Shenkman, fondatorul Rețelei de Știri de Istorie a Universității George Washington.
Oamenii mai în vârstă distribuie știri false pe Facebook mai mult – De New York Times.












