Connect with us

L’IA può combattere le informazioni errate e la parzialità nelle notizie

Etica

L’IA può combattere le informazioni errate e la parzialità nelle notizie

mm

Le informazioni errate e la parzialità nelle notizie sono diventate una delle sfide più grandi che la società ha affrontato negli ultimi anni. Cose come operazioni di informazione, deepfake, influenza finanziaria e sfruttamento delle tensioni sociali sono nuovi strumenti utilizzati da individui e attori statali in tutto il mondo.

Le informazioni errate sono un termine generico per indicare informazioni false, e svolgono un ruolo importante nella manipolazione dell’opinione pubblica. Allo stesso tempo, vengono utilizzate come attacco contro i leader politici e peggiorano le separazioni tra gruppi in vari paesi. Più che mai, le informazioni errate stanno colpendo le cabine elettorali e sono diventate incredibilmente efficaci.

La disinformazione, che è leggermente diversa dalle informazioni errate, è un’informazione ingannevole o distorta. Può includere narrazioni e fatti manipolati. In altre parole, è propaganda.

Un rapporto del 2019 di ricercatori dell’Università di Oxford ha descritto campagne di disinformazione organizzate in 70 paesi diversi, tra cui Russia, Cina, Vietnam e Guatemala.

L’economia digitale ha portato a un aumento delle informazioni errate e della parzialità nelle notizie, con le tecnologie di intelligenza artificiale e le piattaforme di social media che diventano modi per diffonderle tra le masse.

Abbiamo visto molti esempi di questo. Ad esempio, le ultime due elezioni presidenziali negli Stati Uniti sono state piene di informazioni errate e parzialità, e questo è sicuramente destinato a continuare in futuro. I mercati finanziari sono stati anche soggetti a manipolazione a breve termine attraverso informazioni errate e parzialità, e gli affari esteri stanno diventando più tesi a causa del loro utilizzo. Le tensioni sociali sono causate da informazioni false contro sostenitori e oppositori di cause specifiche, e le notizie false sono diffuse in quasi ogni nazione.

La nostra dipendenza dai social media e dagli algoritmi ci ha reso incredibilmente vulnerabili alle informazioni errate e alla parzialità, e è diventato facile manipolare grandi gruppi di persone.

Secondo un saggio intitolato “I pregiudizi rendono le persone vulnerabili alle informazioni errate diffuse dai social media”, pubblicato da The Conversation, una rete di testate giornalistiche no-profit, ci sono tre tipi di pregiudizi che rendono l’ecosistema dei social media vulnerabile a informazioni errate intenzionali e accidentali. È importante riconoscere che la maggior parte delle nostre notizie proviene ora dai social media.

I tre tipi di pregiudizi sono:

  1. Pregiudizio nel cervello: “I pregiudizi cognitivi originano nel modo in cui il cervello elabora le informazioni che ogni persona incontra ogni giorno.”
  2. Pregiudizio nella società: “Quando le persone si connettono direttamente con i loro pari, i pregiudizi sociali che guidano la loro scelta di amici influenzano le informazioni che vedono.
  3. Pregiudizio nella macchina: “Il terzo gruppo di pregiudizi deriva direttamente dagli algoritmi utilizzati per determinare cosa le persone vedono online. Sia le piattaforme di social media che i motori di ricerca li utilizzano.”

Questa combinazione di pregiudizi ha creato l’ambiente perfetto perché gli attori malintenzionati utilizzino le nostre piattaforme di notizie attuali come mezzo per diffondere informazioni errate. Ma è importante riconoscere che il pregiudizio è anche presente al di fuori di questo ambito. I resoconti di notizie regolari e gli articoli rischiano di essere distorti a causa delle inclinazioni particolari di un autore o di una pubblicazione. Non è nulla di nuovo.

Soluzioni di intelligenza artificiale per le informazioni errate e la parzialità

La crescita dell’intelligenza artificiale ci ha fornito molti nuovi e innovativi strumenti che possono essere utilizzati per combattere le informazioni errate e la parzialità nelle notizie.

Ad esempio, quando progettato correttamente, l’IA può rilevare ed eliminare efficacemente alcune informazioni errate e altri contenuti problematici online. È già utilizzato per identificare i bot falsi da aziende come Google, Twitter e Facebook. E i bot falsi vengono spesso utilizzati per diffondere informazioni errate e notizie distorte.

Nuovi framework di IA devono essere esplorati per combattere questo problema e quelli esistenti devono essere migliorati, poiché molti si sono rivelati problematici. Questi problemi iniziano a diventare ancora più pericolosi quando sorgono conflitti. Ad esempio, i conflitti militari, come l’attuale conflitto tra Russia e Ucraina, portano alla diffusione di informazioni errate a un ritmo incredibilmente veloce.

Ci sono vari strumenti alimentati da IA in arrivo. Ad esempio, NT CONNECT, uno sviluppatore di tecnologia internazionale, ha recentemente annunciato il lancio della sua applicazione di aggregatore di notizie, NOOZ.AI. Il motore di analisi linguistica alimentato da IA mira a portare trasparenza alla parzialità polarizzata trovata nel corso dei media odierni. Cerca di raggiungere questo obiettivo mantenendo i lettori consapevoli dell’influenza dei media prima di leggere un articolo.

“Gli autori o i giornalisti tendono a inclinarsi verso una particolare parzialità – spesso senza la conoscenza del lettore”, afferma il comunicato stampa della società. “Conoscendo la parzialità storica dell’autore e delle fonti di notizie, i consumatori possono esaminare l’articolo con una mente più obiettiva e resistere alla manipolazione per pensare in un certo modo su un particolare argomento.”

Lo strumento NOOZ.AI si basa su quattro pilastri chiave:

  • Analisi delle opinioni: Aiuta i lettori a determinare la presenza di sentimenti, opinioni, credenze o giudizi personali nella scrittura di un giornalista.

  • Analisi dei sentimenti: Lo strumento utilizza l’analisi dei sentimenti per aiutare i lettori a valutare il sostegno o l’opposizione di uno scrittore al contenuto generale delle notizie o a un argomento specifico.

  • Analisi della propaganda: Può rilevare la disinformazione potenziale identificando l’utilizzo di fino a 18 tecniche di persuasione possibili.

  • Analisi delle revisioni: I lettori possono indagare sull’evoluzione di una storia di notizie e sulla sua manipolazione dell’opinione e del sentimento nel tempo.

L’app fornisce punteggi per ogni articolo, con punteggi di opinione che vanno da 0 a 100 e punteggi di sentimento che vanno da -100 a 100. Inoltre, tiene traccia di tutte le modifiche al testo per ogni revisione e fornisce ai lettori la possibilità di confrontare diverse versioni.

Secondo Garry Paxinos, CTO di NT CONNECT:

“La segnalazione distorta è una preoccupazione importante nella società odierna. Le informazioni errate sono la parola chiave più (male)utilizzata. Ma la realtà è che il linguaggio stesso può essere utilizzato per manipolare e persuadere il lettore casuale. Analizzando oggettivamente il linguaggio, evitiamo il pregiudizio soggettivo trovato in altri approcci. A differenza di etichettare soggettivamente le informazioni errate, il nostro approccio è quello di illuminare come si possa essere manipolati con titoli esagerati, cronologia delle revisioni e testo degli articoli.”

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.