Seguici sui social

In che modo l'intelligenza artificiale di Facebook diffonde disinformazione e minaccia la democrazia

Leader del pensiero

In che modo l'intelligenza artificiale di Facebook diffonde disinformazione e minaccia la democrazia

mm

Dan Tunkelang, che ha supervisionato la ricerca sull'intelligenza artificiale presso LinkedIn, ha dichiarato: "Nel momento in cui le raccomandazioni hanno il potere di influenzare le decisioni, diventano un bersaglio per spammer, truffatori e altre persone con motivazioni tutt'altro che nobili".

Questo è il dilemma che le società di social media come Facebook stanno vivendo. Facebook utilizza feedback implicito per tenere traccia di clic, visualizzazioni e altri comportamenti misurabili degli utenti. Questo viene utilizzato per progettare ciò che viene identificato come un "motore di raccomandazione", un sistema di intelligenza artificiale che ha il potere ultimo di decidere chi vede quali contenuti e quando.

Facebook ha ottimizzato il proprio motore di raccomandazione per massimizzare il coinvolgimento degli utenti, misurato dalla quantità di tempo trascorso incollato alla piattaforma Facebook. La massimizzazione del tempo ha la priorità su qualsiasi altra variabile, inclusa la qualità o l'accuratezza di ciò che viene raccomandato.

Il sistema è progettato per premiare i titoli sensazionalistici che coinvolgono gli utenti sfruttando i pregiudizi cognitivi, anche se quei titoli sono stati scritti da troll russi con l'intenzione di dividere la società o influenzare le elezioni politiche.

In che modo Facebook utilizza l'intelligenza artificiale

C'è una mancanza di consapevolezza su come Facebook utilizza l'intelligenza artificiale per decidere su ciò che i suoi utenti vedono e con cui interagiscono. Bisogna prima capire cos'è il bias di conferma. Psychology Today descrive questo come:

Il pregiudizio di conferma è la tendenza a cercare, interpretare, favorire e ricordare le informazioni in un modo che conferma o supporta le proprie convinzioni o valori precedenti.

Facebook comprende che è più probabile che gli utenti facciano clic sulle notizie che alimentano la tendenza umana a cercare pregiudizi di conferma. Ciò costituisce un pericoloso precedente sia per la diffusione delle teorie del complotto sia per la creazione di camere dell'eco in cui gli utenti vengono nutriti esclusivamente con ciò che vogliono vedere, indipendentemente dall'accuratezza o dall'impatto sociale di ciò che viene visto.

A studio del MIT ha potuto dimostrare che le notizie false su Twitter si diffondono 6 volte più velocemente delle notizie vere.

Ciò significa che sia Twitter che Facebook possono essere armati. Mentre Twitter consente a chiunque di farlo intenzionalmente seguire feed con punti di vista ristretti o di parte, Facebook fa un ulteriore passo avanti. Un utente su Facebook attualmente non ha modo di controllare o misurare ciò che viene visto, questo è controllato interamente dal motore di raccomandazione di Facebook, da come misura il coinvolgimento dell'utente e da come si ottimizza per questo stesso coinvolgimento dell'utente.

Facebook tenta di modellare e prevedere i desideri dei propri utenti. Facebook stima in che misura a un utente piacerà o non piacerà una notizia che non è ancora stata vissuta dall'utente. Per evitare una perdita di coinvolgimento degli utenti, Facebook sceglie quindi di ignorare le notizie che potrebbero ridurre il livello di coinvolgimento e sceglie invece di coinvolgere l'utente alimentando le notizie che alimentano il bias di conferma, garantendo più clic, commenti, Mi piace e azioni.

Facebook utilizza anche il filtraggio collaborativo automatizzato delle azioni e delle opinioni storiche degli utenti per abbinare automaticamente i partecipanti (amici) con opinioni simili. Facebook utilizza una funzione di utilità che prevede automaticamente e matematicamente e classifica le tue preferenze per gli elementi che vuoi vedere.

Ciò fa cadere gli utenti nella tana del coniglio, sono intrappolati in notizie false, vengono nutriti di contenuti che rafforzano il loro pregiudizio. Il contenuto che viene presentato è intrinsecamente progettato con l'obiettivo di influenzare ciò su cui fai clic. Dopotutto, se credi alla cospirazione secondo cui Bill Gates sta tentando di microchippare la popolazione umana usando i vaccini, perché Facebook dovrebbe presentarti prove contraddittorie che potrebbero farti disimpegnare dalla piattaforma? Se sostieni un certo candidato politico, perché Facebook dovrebbe offrire notizie che potrebbero contraddire le tue opinioni positive su questo stesso candidato?

Come se ciò non bastasse, Facebook utilizza anche quella che è nota come “riprova sociale”. La prova sociale è il concetto che le persone seguiranno le azioni delle masse. L'idea è che dal momento che così tante altre persone si comportano in un certo modo, deve essere il comportamento corretto.

Facebook fornisce questa prova sociale nel contesto di Mi piace, commenti o condivisioni. Poiché solo alcuni amici possono vedere l'elemento del newsfeed (a meno che non cerchino specificamente un newsfeed dell'utente), la prova sociale serve semplicemente a rafforzare il pregiudizio di conferma.

Facebook utilizza anche bolle di filtro limitare l'esposizione a punti di vista conflittuali, contraddittori e/o stimolanti.

Facebook Ads

Gli ignari utenti di Facebook potrebbero esserlo facendo clic sugli annunci senza esserne a conoscenza che vengono presentati con annunci. Il motivo è semplice, se c'è un annuncio solo la prima persona a cui viene presentato l'annuncio vedrà il disclaimer dell'annuncio. Se quell'utente condivide l'annuncio, tutti nel loro elenco di amici vedranno semplicemente la "condivisione" come un elemento del feed di notizie poiché Facebook elimina intenzionalmente il disclaimer dell'annuncio. Immediatamente, gli utenti abbassano la guardia, non sono in grado di distinguere tra ciò che è un annuncio e ciò che sarebbe apparso organicamente sul loro feed di notizie.

Condivisioni Facebook

Purtroppo le cose peggiorano. Se un utente ha 1000 amici che condividono contemporaneamente contenuti, il motore di raccomandazione darà la priorità ai contenuti della minoranza che condivide le stesse opinioni, anche se queste spesso consistono in teorie del complotto non dimostrate. L'utente avrà quindi l'illusione che questi elementi del feed di notizie vengano visti da tutti. Interagendo con questo feed di notizie, questi utenti stanno ottimizzando la reciproca riprova sociale.

Se un utente tenta di illuminare un altro utente su un articolo fuorviante o falso, l'atto stesso di commentare o interagire con il newsfeed aumenta semplicemente il tempo di coinvolgimento dell'utente originale. Questo ciclo di feedback fa sì che Facebook rafforzi il coinvolgimento dell'utente con ulteriori notizie false.

Ciò provoca una camera dell'eco, una bolla filtrante in cui un utente è addestrato a credere solo in ciò che vede. La verità è semplicemente un'illusione.

Gravità del problema

Oltre 10 milioni di persone impegnato con un newsfeed affermando che Papa Francesco si è espresso a favore dell'elezione di Trump nel 2016. Non c'erano prove di ciò, era semplicemente una notizia falsa uscita dalla Russia, eppure questa è stata la notizia più condivisa su Facebook nei tre mesi precedenti fino alle elezioni del 2016.

La notizia è stata generata da un allevamento di troll russo che si autodefinisce "Internet Research Agency". Questa stessa organizzazione era responsabile della promozione e della condivisione su Twitter e Facebook di articoli di esca razziale, a favore della demonizzazione di Black Lives Matter e dell'armamento di notizie false che diffondevano false affermazioni sui politici americani.

Il comitato ristretto per l'intelligence ha rilasciato un Rapporto pagina 85 descrivendo in dettaglio le campagne e le interferenze delle misure attive russe, la maggior parte delle quali ha comportato la diffusione di fake news controverse e la propaganda che aveva il solo intento di influenzare le elezioni statunitensi del 2016.

Avanti veloce alle elezioni del 2020 e il problema si è solo intensificato. A settembre 2020 dopo una soffiata dell'FBI su Facebook e Twitter account di social media chiusi per un'organizzazione di notizie chiamata PeaceData, che è collegata agli sforzi di propaganda di stato della Russia.

Sfortunatamente, la chiusura degli account è una soluzione temporanea e inefficace. Gli account russi spesso assumono la forma di richieste di amicizia, spesso disgustate da donne con profili attraenti che prendono di mira gli uomini, oppure con account utente dirottati con una cronologia di post regolari. Questi account dirottati si spostano lentamente verso incarichi più politici, fino a quando non sono dominati dalla propaganda o dalle teorie del complotto.

Un utente ignaro potrebbe non sapere che l'account di un amico è stato compromesso. Se quell'utente è vulnerabile alle teorie del complotto, potrebbe impegnarsi nel falso elemento del feed di notizie, il troll russo che spesso è un bot, quindi fornisce ulteriori prove sociali sotto forma di Mi piace o commenti.

Gli utenti vulnerabili sono spesso quelli che meno capiscono come funzionano la tecnologia e l'intelligenza artificiale. La fascia demografica over 65, che è la popolazione che ha maggiori probabilità di votare, è anche quella che ha maggiori probabilità di diffondere notizie false come riportato dal New York Times.

Secondo lo studio, gli utenti di Facebook di età pari o superiore a 65 anni hanno pubblicato sette volte più articoli da siti Web di notizie false rispetto agli adulti di età pari o inferiore a 29 anni. Una mancanza di alfabetizzazione mediatica digitale ha questa fascia di età impreparata per un newsfeed che non è fondato su fatti o accuratezza, ma esclusivamente sul coinvolgimento degli utenti.

I cattivi attori stanno approfittando del motore di raccomandazione di Facebook che sfrutta i nostri pregiudizi cognitivi contro di noi. Queste stesse organizzazioni hanno ottimizzato l'abuso dell'intelligenza artificiale di Facebook per diffondere teorie del complotto e propaganda. Teorie del complotto che a prima vista possono sembrare innocenti, sono spesso usate come imbuti verso la supremazia bianca, il nazionalismo di estrema destra o QAnon una bizzarra teoria della cospirazione che coinvolge Trump che cerca di salvare il mondo dai pedofili liberali, una cospirazione che non ha basi nella realtà.

Sintesi

Facebook è chiaramente consapevole che c'è un problema e lo hanno fatto pubblicamente ha annunciato una strategia che si concentra sulla rimozione di contenuti che violano gli standard della community di Facebook. Il problema è che l'eliminazione degli account è una misura temporanea di ripiego che è inefficace quando gli account vengono generati in blocco da bot o l'hacking di massa degli account utente. Inoltre, non risolve il problema che la maggior parte della condivisione è da parte di utenti regolari che non sono consapevoli di diffondere disinformazione.

L'aggiunta di etichette di avvertimento serve semplicemente a rafforzare le teorie del complotto secondo cui i giganti dei social media sono prevenuti nei confronti dei conservatori che sono i più suscettibile di notizie false.

La soluzione deve essere un nuovo motore di raccomandazione che misuri non solo il coinvolgimento degli utenti, ma sia ottimizzato per la felicità degli utenti fornendo verità e promuovendo una maggiore consapevolezza di sé.

Nel frattempo, Facebook dovrebbe seguire il percorso che Twitter ha deciso di vietare gli annunci politici.

Infine, occorre porsi una domanda importante. Se le persone non hanno più scelta sulle notizie che vedono, quando smette di essere una raccomandazione e quando diventa controllo mentale?

Letture consigliate:

Campagne di misure attive russe e interferenze – Rapporto del Select Committee on Intelligence Senato degli Stati Uniti.

Il documento scioccante che prevede la fine della democrazia - Da Rick Shenkman, fondatore dell'History News Network della George Washington University.

Gli anziani condividono notizie false su Facebook Altro – Dal New York Times

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.