ciot Cum AI Facebook răspândește dezinformare și amenință democrația - Unite.AI
Conectează-te cu noi

Liderii gândirii

Cum AI Facebook răspândește dezinformare și amenință democrația

mm
Actualizat on

Dan Tunkelang, care a supravegheat cercetarea AI la LinkedIn, a declarat: „În momentul în care recomandările au puterea de a influența deciziile, ele devin o țintă pentru spammeri, escroci și alte persoane cu motive mai puțin decât nobile”.

Aceasta este dilema pe care o întâmpină companiile de social media precum Facebook. Facebook folosește feedback implicit pentru a urmări clicurile, vizionările și alte comportamente măsurabile ale utilizatorilor. Acesta este folosit pentru a proiecta ceea ce este identificat ca un „motor de recomandare”, un sistem AI care are puterea supremă de a decide cine vede ce conținut și când.

Facebook și-a optimizat motorul de recomandare pentru a maximiza implicarea utilizatorilor, care este măsurată prin cantitatea de timp petrecută lipit de platforma Facebook. Maximizarea timpului are prioritate față de orice altă variabilă, inclusiv calitatea sau acuratețea a ceea ce este recomandat.

Sistemul este conceput pentru a recompensa titlurile senzaționaliste care implică utilizatorii prin exploatarea părtinirii cognitive, chiar dacă acele titluri se întâmplă să fie scrise de trolii ruși cu intenția de a diviza societatea sau de a influența alegerile politice.

Cum folosește Facebook AI

Există o lipsă de conștientizare a modului în care Facebook utilizează inteligența artificială pentru a decide ce văd utilizatorii săi și cu ce interacționează. Mai întâi trebuie să înțelegeți ce este părtinirea de confirmare. Psychology Today descrie asta ca:

Prejudecata de confirmare este tendința de a căuta, interpreta, favoriza și reaminti informații într-un mod care confirmă sau susține credințele sau valorile anterioare.

Facebook înțelege că este mai probabil ca utilizatorii să facă clic pe știri care alimentează tendința umană de a căuta părtinire de confirmare. Acest lucru creează un precedent periculos atât pentru răspândirea teoriilor conspirației, cât și pentru crearea unor camere de ecou în care utilizatorii sunt hrăniți cu lingurița exclusiv cu ceea ce doresc să vadă, indiferent de acuratețe sau de impactul societal al ceea ce este văzut.

A studiu de către MIT a putut demonstra că știrile false pe Twitter se răspândesc de 6 ori mai repede decât știrile reale.

Aceasta înseamnă că atât Twitter, cât și Facebook pot fi armate. În timp ce Twitter permite oricui să facă în mod intenționat urma se alimentează cu puncte de vedere înguste sau părtinitoare, Facebook face acest lucru cu un pas mai departe. În prezent, un utilizator de pe Facebook nu are nicio modalitate de a controla sau de a măsura ceea ce este văzut, aceasta este controlată în întregime de motorul de recomandare al Facebook, cum măsoară implicarea utilizatorului și cum se optimizează pentru aceeași implicare a utilizatorului.

Facebook încearcă să modeleze și să prezică dorințele utilizatorilor. Facebook estimează în ce măsură un utilizator va aprecia sau nu va aprecia o știre care nu este încă experimentată de utilizator. Pentru a evita o pierdere a implicării utilizatorilor, Facebook alege apoi să ocolească știrile care pot reduce nivelul de implicare și alege, în schimb, să implice utilizatorul prin furnizarea de știri care alimentează părtinirea de confirmare, asigurând mai multe clicuri, comentarii, aprecieri și acțiuni.

Facebook folosește, de asemenea, filtrarea colaborativă automată a acțiunilor și opiniilor utilizatorilor istorice pentru a potrivi automat participanții (prieteni) cu opinii similare. Facebook folosește o funcție de utilitate care prezice și clasifică automat și matematic preferințele tale pentru articolele pe care vrei să le vezi.

Acest lucru îi face pe utilizatori să cadă într-o groapă de iepure, sunt prinși în știri false, fiind hrăniți cu conținut care le întărește părtinirea. Conținutul care este prezentat este conceput în mod inerent cu scopul de a influența pe ce faceți clic. La urma urmei, dacă credeți în conspirația conform căreia Bill Gates încearcă să microcipeze populația umană folosind vaccinuri, de ce ar trebui Facebook să vă prezinte dovezi contradictorii care vă pot determina dezlegarea de platformă? Dacă susțineți un anumit candidat politic de ce ar trebui Facebook să ofere știri care ar putea contrazice părerile dumneavoastră pozitive despre același candidat?

De parcă acest lucru nu ar fi suficient, Facebook implică și ceea ce este cunoscut sub numele de „dovada socială”. Dovada socială este conceptul că oamenii vor urma acțiunile maselor. Ideea este că, deoarece atât de mulți alți oameni se comportă într-un anumit fel, acesta trebuie să fie comportamentul corect.

Facebook oferă această dovadă socială în contextul aprecierilor, comentariilor sau distribuirilor. Deoarece doar anumiți prieteni pot vedea elementul din fluxul de știri (cu excepția cazului în care caută în mod specific un flux de știri al utilizatorilor), dovada socială servește pur și simplu pentru a întări părtinirea de confirmare.

Facebook folosește și bule de filtrare pentru a limita expunerea la puncte de vedere contradictorii, contradictorii și/sau provocatoare.

Facebook Ads

Utilizatorii Facebook nebănuitori pot fi făcând clic pe reclame fără a fi conștient că li se prezintă reclame. Motivul pentru aceasta este simplu, dacă există un anunț, doar prima persoană care este prezentată cu anunțul va vedea anunțul de declinare a răspunderii. Dacă acel utilizator distribuie anunțul, toți cei din lista de prieteni văd pur și simplu „distribuirea” ca un element din fluxul de știri, deoarece Facebook renunță în mod intenționat la anunțul de declinare a răspunderii. Imediat, utilizatorii își lasă garda jos, nu reușesc să facă diferența între ceea ce este o reclamă și ceea ce ar fi apărut organic pe fluxul lor de știri.

Partajări Facebook

Din păcate, lucrurile se înrăutățesc. Dacă un utilizator are 1000 de prieteni care distribuie simultan conținut, motorul de recomandare va acorda prioritate conținutului din minoritatea care împărtășește aceleași opinii, chiar dacă acestea constau adesea în teorii ale conspirației nedovedite. Utilizatorul va fi apoi sub iluzia că aceste articole din fluxul de știri sunt văzute de toată lumea. Interacționând cu acest flux de știri, acești utilizatori își optimizează reciproc dovezile sociale.

În cazul în care un utilizator încearcă să informeze un alt utilizator despre un articol înșelător sau fals, însuși actul de a comenta sau de a interacționa cu fluxul de știri crește pur și simplu timpul de implicare a utilizatorilor inițiali. Această buclă de feedback face ca Facebook să întărească implicarea utilizatorului respectiv cu știri false suplimentare.

Acest lucru determină o cameră de ecou, ​​o bulă de filtru în care un utilizator este instruit să creadă doar în ceea ce vede. Adevărul este pur și simplu o iluzie.

Seriozitatea problemei

Peste 10 milion de oameni angajat cu un flux de știri susținând că Papa Francisc s-a pronunțat în favoarea alegerii lui Trump în 2016. Nu existau dovezi în acest sens, a fost pur și simplu o știre falsă care a venit din Rusia, totuși aceasta a fost cea mai împărtășită știre pe Facebook în ultimele trei luni. până la alegerile din 2016.

Știrea a fost generată de o fermă rusă de troli, care se numește „Agenția de Cercetare pe Internet”. Aceeași organizație a fost responsabilă de promovarea și distribuirea pe Twitter și Facebook a articolelor despre momeli rase, în favoarea demonizării Black Lives Matter și a armelor de știri false care răspândesc afirmații false despre politicienii americani.

Comitetul restrâns pentru informații a lansat un Raport de 85 pagini care detaliază campaniile și interferența Rusiei privind măsurile active, cea mai mare parte dintre acestea implicată răspândirea de știri false care divizează și propagandă care avea ca unică intenție de a influența alegerile din SUA din 2016.

Avanză rapid spre alegerile din 2020 și problema nu a făcut decât să se intensifice. În septembrie 2020, după un pont FBI pe Facebook și Twitter conturi de rețele sociale închise pentru o organizație de știri numită PeaceData, care este legată de eforturile de propagandă de stat ale Rusiei.

Din păcate, închiderea conturilor este o soluție temporară și ineficientă. Conturile rusești iau adesea forma unor solicitări de prietenie, adesea dezgustate de femei cu profiluri atractive care vizează bărbați, sau cu conturi de utilizator deturnate cu un istoric de postări obișnuite. Aceste conturi deturnate trec încet la posturi mai politice, până când sunt dominate de propagandă sau teorii ale conspirației.

Un utilizator care nu bănuiește poate să nu știe că un cont de prieteni a fost compromis. Dacă acel utilizator este vulnerabil la teoriile conspirației, se poate implica în știrile false, trollul rus, care este adesea un bot, apoi oferă dovezi sociale suplimentare sub formă de aprecieri sau comentarii.

Utilizatorii vulnerabili sunt adesea cei care înțeleg cel mai puțin cum funcționează tehnologia și inteligența artificială. Demografiile peste 65 de ani, care este populația cea mai probabilă să voteze, este, de asemenea, cea mai probabilă să răspândească știri false, deoarece raportat de New York Times.

Potrivit studiului, utilizatorii Facebook cu vârsta de 65 de ani și peste au postat de șapte ori mai multe articole de pe site-uri de știri false decât adulții de 29 de ani și mai tineri. Lipsa alfabetizării media digitale face ca acest grup de vârstă să nu fie pregătit pentru un flux de știri care nu se bazează pe fapte sau pe acuratețe, ci exclusiv pe implicarea utilizatorilor.

Actorii răi profită de motorul de recomandare al Facebook, care exploatează părtinirile noastre cognitive împotriva noastră. Aceleași organizații au optimizat abuzul de AI al Facebook pentru a răspândi teorii și propagandă ale conspirației. Teoriile conspirației, care pot părea inocente la început, sunt adesea folosite ca pâlnii către supremația albă, naționalismul de extremă dreapta sau QAnon o bizară teorie a conspirației în care Trump încearcă să salveze lumea de pedofilii liberali, o conspirație care nu are nicio bază în realitate.

Rezumat

Facebook este clar conștient că există o problemă și au făcut-o în mod public a anunțat o strategie care se concentrează pe eliminarea conținutului care încalcă standardele comunității Facebook. Problema este că ștergerea conturilor este o măsură temporară care este ineficientă atunci când conturile sunt generate în vrac de către roboți sau piratarea în masă a conturilor de utilizator. De asemenea, nu rezolvă problema că cea mai mare parte a partajării este de către utilizatori obișnuiți, care nu știu că răspândesc informații greșite.

Adăugarea etichetelor de avertizare servește pur și simplu la consolidarea teoriilor conspirației conform cărora giganții rețelelor sociale sunt părtinitoare împotriva conservatorilor, care sunt cei mai susceptibil la știri false.

Soluția trebuie să fie un nou motor de recomandare care măsoară nu numai implicarea utilizatorilor, ci este optimizat pentru fericirea utilizatorilor, oferind adevăr și promovând o conștientizare sporită de sine.

Între timp, Facebook ar trebui să urmeze calea care Twitter a început să interzică reclamele politice.

În sfârșit, trebuie pusă o întrebare importantă. Dacă oamenii nu mai au de ales la știrile pe care le văd, când încetează să mai fie o recomandare și când devine controlul minții?

Texte Recomandate:

Campanii și interferențe rusești de măsuri active – Raportul Comitetului restrâns pentru informații al Senatului Statelor Unite.

Lucrarea șocantă care prezice sfârșitul democrației - De Rick Shenkman, fondatorul History News Network a Universității George Washington.

Oamenii în vârstă distribuie știri false pe Facebook Mai multe – De New York Times

Un partener fondator al unit.AI și un membru al Consiliul Tehnologic Forbes, Antoine este un futurist care este pasionat de viitorul AI și al roboticii.

El este, de asemenea, fondatorul Securities.io, un site web care se concentrează pe investițiile în tehnologie disruptivă.