Intelligenza artificiale
Sistema di allarme precoce per la disinformazione sviluppato con l’intelligenza artificiale

I ricercatori dell’Università di Notre Dame stanno lavorando su un progetto per combattere la disinformazione online, inclusi campagne mediatiche per incitare alla violenza, seminare discordia e interferire con le elezioni democratiche.
Il team di ricercatori ha fatto affidamento sull’intelligenza artificiale (AI) per sviluppare un sistema di allarme precoce. Il sistema sarà in grado di identificare immagini manipolate, video deepfake e disinformazione online. È un sistema scalabile e automatizzato che utilizza il recupero di immagini basato sul contenuto. Può quindi applicare tecniche di visione computerizzata per identificare meme politici su più reti sociali.
Tim Weninger è un professore associato nel Dipartimento di Informatica e Ingegneria dell’Università di Notre Dame.
“I meme sono facili da creare e ancora più facili da condividere”, ha detto Weninger. “Quando si tratta di meme politici, questi possono essere utilizzati per aiutare a mobilitare gli elettori, ma possono anche essere utilizzati per diffondere informazioni inaccurate e causare danni.”
Weninger ha collaborato con Walter Scheirer, un professore assistente nel Dipartimento di Informatica e Ingegneria dell’Università di Notre Dame, insieme ad altri membri del team di ricerca.
Elezioni generali del 2019 in Indonesia
Il team ha testato il sistema con le elezioni generali del 2019 in Indonesia. Hanno raccolto oltre due milioni di immagini e contenuti, provenienti da varie fonti su Twitter e Instagram relative alle elezioni.
Nelle elezioni, il candidato centrista di sinistra in carica ha battuto il candidato populista conservatore. Dopo le elezioni, sono scoppiate violente proteste in cui sono morte otto persone e centinaia di altre sono state ferite. Lo studio del team ha rilevato che sono state lanciate campagne spontanee e coordinate sui social media con l’obiettivo di influenzare le elezioni e incitare alla violenza.
Le campagne coordinate hanno utilizzato immagini manipolate, che proiettavano false affermazioni e rappresentavano in modo distorto alcuni eventi. Sono state create storie e meme con l’uso di loghi di notizie legittime, con l’obiettivo di provocare i cittadini e i sostenitori di entrambi i partiti.
Il resto del mondo
Le elezioni generali del 2019 in Indonesia rappresentano ciò che può accadere nel resto del mondo. La disinformazione, in particolare quella diffusa attraverso i social media, può minacciare i processi democratici.
Il team di ricerca dell’Università di Notre Dame include esperti di forensi digitali e specialisti in studi sulla pace. Secondo il team, il sistema è stato sviluppato per segnalare contenuti manipolati, con l’obiettivo di prevenire la violenza e avvertire i giornalisti o gli osservatori elettorali di potenziali minacce.
Il sistema è ancora in fase di ricerca e sviluppo, ma sarà eventualmente scalabile e personalizzato per gli utenti per monitorare i contenuti. Alcune delle sfide più grandi nello sviluppo del sistema includono il determinare il modo migliore per scalare l’ingestione e l’elaborazione dei dati. Secondo Scheirer, il sistema è attualmente in valutazione, con il prossimo passo che sarà la transizione all’uso operativo.
C’è la possibilità che il sistema possa essere utilizzato per monitorare le elezioni generali del 2020 negli Stati Uniti, che si prevede saranno caratterizzate da massive quantità di disinformazione e manipolazione.
“L’era della disinformazione è arrivata”, ha detto Scheirer. “Un deepfake che sostituisce attori in un film popolare potrebbe sembrare divertente e leggero, ma immaginate un video o un meme creato solo per mettere uno contro l’altro i leader mondiali – dicendo parole che non hanno mai detto. Immaginate quanto rapidamente quel contenuto potrebbe essere condiviso e diffuso attraverso le piattaforme. Considerate le conseguenze di quelle azioni.”










