Intelligenza artificiale
Un modello di intelligenza artificiale può identificare i diffusori di disinformazione prima che agiscano

Un modello di intelligenza artificiale creato da ricercatori dell’Università di Sheffield può potenzialmente determinare quali utenti di Twitter pubblicheranno disinformazione prima che lo facciano effettivamente. Se il modello si rivela affidabile, potrebbe essere utilizzato per complementare i metodi esistenti di lotta alla disinformazione sui social media.
Secondo TechXplore, lo studio è stato condotto da ricercatori del Dipartimento di Informatica dell’Università di Sheffield, tra cui Dr. Nikos Aletras e Yida Mu. Lo studio è stato pubblicato sulla rivista PeerJ e dettaglia i metodi utilizzati per prevedere se un utente di social media è probabile che diffonda disinformazione pubblicando contenuti da fonti di notizie non affidabili.
Il team di ricerca ha raccolto oltre 1 milione di tweet da oltre 6000 utenti di Twitter, tutti pubblicamente disponibili. Il team ha applicato tecniche di elaborazione del linguaggio naturale per preparare i dati per l’addestramento di un modello di intelligenza artificiale. Il modello di intelligenza artificiale era un modello di classificazione binaria, che etichettava gli utenti come probabili o non probabili condividere informazioni da fonti non affidabili. Dopo che il modello è stato addestrato sui dati, è stato in grado di raggiungere un’accuratezza di classificazione di circa il 79,7%.
Quando si analizzano i risultati delle prestazioni del modello, i ricercatori hanno scoperto che gli utenti che utilizzavano frequentemente un linguaggio scortese e costantemente twittavano su religione e politica erano più probabili di pubblicare informazioni da fonti non affidabili. In particolare, c’è stato un uso frequente di parole come “liberale”, “media”, “governo”, “Israele” e “Islam”. Nel frattempo, gli utenti che pubblicavano informazioni da fonti affidabili tendevano a utilizzare parole come “I’ll”, “gonna”, “wanna”, “mood”, “excited” e “birthday”. Oltre a questo, hanno condiviso storie sulla loro vita personale, come interazioni con gli amici, le loro emozioni o informazioni sui loro hobby.
I risultati dello studio potrebbero aiutare le società di social media come Facebook, Reddit e Twitter a progettare nuovi modi per combattere la diffusione di informazioni false online. La ricerca potrebbe anche aiutare gli psicologi e i sociologi a comprendere meglio il comportamento che porta alla diffusione di informazioni false all’interno di una rete sociale.
Come ha spiegato Aletras secondo TechXplore, i social media si sono trasformati in uno dei principali modi in cui le persone ricevono notizie. Milioni di utenti in tutto il mondo ricevono notizie attraverso Facebook e Twitter ogni giorno, ma queste piattaforme sono anche diventate strumenti per diffondere disinformazione nella società. Aletras ha continuato a spiegare che l’identificazione affidabile di determinati trend nel comportamento degli utenti potrebbe aiutare a limitare la disinformazione. Come ha spiegato Aletras, c’è una “correlazione tra l’uso di un linguaggio scortese e la diffusione di contenuti non affidabili che può essere attribuita a un’elevata ostilità politica online”.
Secondo Mu, analizzare il comportamento degli utenti che condividono informazioni non affidabili può aiutare le piattaforme di social media a prevenire la diffusione di notizie false a livello di utente, complementando i metodi di fact-checking esistenti che funzionano a livello di post o di fonte di notizie. Come ha detto Mu via TechXplore:
“Studiare e analizzare il comportamento degli utenti che condividono contenuti da fonti di notizie non affidabili può aiutare le piattaforme di social media a prevenire la diffusione di notizie false a livello di utente, complementando i metodi di fact-checking esistenti che funzionano a livello di post o di fonte di notizie.”
La ricerca condotta da Aletras e Mu potrebbe essere un esempio di utilizzo dell’intelligenza artificiale per combattere la disinformazione generata dall’intelligenza artificiale. Negli ultimi mesi, c’è stato un aumento di disinformazione riguardante la politica locale e nazionale, con gran parte del contenuto generato e diffuso da algoritmi di intelligenza artificiale. Le reti neurali profonde sono state utilizzate per costruire fotografie realistiche e profili per account falsi che servono come diffusori di notizie false. La ricerca di Aletras e Mu potrebbe aiutare le società di social media a capire quali account sono falsi, account bot creati con lo scopo di diffondere propaganda e disinformazione dannosa.
