Intelligenza Artificiale
Il modello statistico aiuta a rilevare la disinformazione sui social media

Un professore di matematica dell'American University, insieme al suo team di collaboratori, ha sviluppato un modello statistico in grado di rilevare la disinformazione nei post sui social media.
L’apprendimento automatico viene sempre più utilizzato per fermare la diffusione della disinformazione, ma esiste ancora un grosso ostacolo legato al problema delle scatole nere che si verificano. Ciò si riferisce a quando i ricercatori non capiscono come una macchina arrivi alla stessa decisione degli addestratori umani.
Rilevare la disinformazione con modelli statistici
Zois Boukouvalas, assistente professore presso il Dipartimento di matematica e statistica dell'AU, ha utilizzato un set di dati di Twitter con tweet di disinformazione su COVID-19 per dimostrare come i modelli statistici possono rilevare la disinformazione nei social media durante eventi importanti come una pandemia o un disastro.
Boukouvalas e i suoi colleghi, tra cui la studentessa dell'UA Caitlin Moroney e la professoressa di informatica Nathalie Japkowics, hanno dimostrato come le decisioni del modello si allineino con quelle degli umani nel ricerca appena pubblicata.
"Vorremmo sapere cosa pensa una macchina quando prende decisioni, e come e perché concorda con gli umani che l'hanno addestrata", ha detto Boukouvalas. "Non vogliamo bloccare l'account social di qualcuno perché il modello prende una decisione distorta".
Il metodo utilizzato dal team è un tipo di apprendimento automatico che si basa sulle statistiche. I modelli statistici sono efficaci e forniscono un altro modo per combattere la disinformazione.
Il modello ha raggiunto un'elevata prestazione di previsione e ha classificato un set di test di 112 tweet reali e di disinformazione con una precisione di quasi il 90%.
"L'aspetto significativo di questa scoperta è che il nostro modello ha raggiunto un livello di accuratezza elevato, offrendo al contempo trasparenza su come ha individuato i tweet contenenti disinformazione", ha continuato Boukouvalas. "I metodi di deep learning non possono raggiungere questo tipo di accuratezza se trasparenti".
Formazione e preparazione del modello
I ricercatori si sono preparati ad addestrare il modello prima di testarlo su un set di dati poiché le informazioni fornite dagli esseri umani possono introdurre pregiudizi e scatole nere.
I tweet sono stati etichettati dai ricercatori come disinformazione o reali sulla base di una serie di regole predefinite sul linguaggio utilizzato nella disinformazione. Il team ha anche preso in considerazione le sfumature del linguaggio umano e le caratteristiche linguistiche legate alla disinformazione.
Prima di addestrare il modello, la professoressa socio-linguista Christine Mallinson dell'Università del Maryland Baltimore County ha identificato i tweet per gli stili di scrittura associati a disinformazione, pregiudizi e fonti meno affidabili nei media.
"Una volta aggiunti questi input al modello, si cerca di comprendere i fattori sottostanti che portano alla separazione tra informazioni buone e cattive", ha affermato Japkowicz. "Si impara il contesto e come interagiscono le parole".
I ricercatori cercheranno ora di migliorare l'interfaccia utente per il modello, nonché la sua capacità di rilevare la disinformazione nei post sui social media che includono immagini o altri contenuti multimediali. Il modello statistico dovrà apprendere come una varietà di elementi diversi interagiscono tra loro per creare disinformazione.
Sia Boukouvalas che Japkowicz affermano che l'intelligenza umana e l'alfabetizzazione giornalistica sono fondamentali per fermare la diffusione della disinformazione.
"Attraverso il nostro lavoro, progettiamo strumenti basati sull'apprendimento automatico per allertare ed educare il pubblico al fine di eliminare la disinformazione, ma crediamo fermamente che gli esseri umani debbano svolgere un ruolo attivo nel non diffondere la disinformazione in primo luogo", ha affermato Boukouvalas.












