Connect with us

Strumenti del browser AI mirano a riconoscere Deepfakes e altri media falsi

Intelligenza artificiale

Strumenti del browser AI mirano a riconoscere Deepfakes e altri media falsi

mm

Gli sforzi delle aziende tecnologiche per affrontare la disinformazione e i contenuti falsi stanno entrando nel vivo in tempi recenti, poiché le tecnologie di generazione di contenuti falsi sofisticate come DeepFakes diventano più facili da usare e più raffinate. Uno dei prossimi tentativi di aiutare le persone a rilevare e combattere i deepfakes è RealityDefender, prodotto da la AI Foundation, che si è impegnata a sviluppare agenti e assistenti AI etici che gli utenti possono addestrare a completare vari compiti.

Il progetto più noto della AI Foundation è una piattaforma che consente alle persone di creare le proprie persone digitali che sembrano loro e li rappresentano in spazi di incontro virtuali. La AI Foundation è supervisionata dal Global AI Council e, come parte del loro mandato, devono anticipare i possibili impatti negativi delle piattaforme AI, quindi cercare di superare questi problemi. Come riportato da VentureBeat, uno degli strumenti che la AI Foundation ha creato per aiutare a rilevare i deepfakes è chiamato Reality Defender. Reality Defender è uno strumento che una persona può utilizzare nel proprio browser web (controllare su questo), che analizzerà video, immagini e altri tipi di media per rilevare segni che il media è stato falsificato o alterato in qualche modo. Si spera che lo strumento aiuti a contrastare il flusso crescente di deepfakes su Internet, che secondo alcune stime è quasi raddoppiato nel corso degli ultimi sei mesi.

Reality Defender funziona utilizzando una varietà di algoritmi basati su AI che possono rilevare indizi che suggeriscono che un’immagine o un video potrebbero essere stati falsificati. I modelli AI rilevano segni sottili di inganno e manipolazione, e i falsi positivi che il modello rileva sono etichettati come errati dagli utenti dello strumento. I dati vengono quindi utilizzati per riaddestrare il modello. Le aziende AI che creano deepfakes non ingannevoli hanno il loro contenuto etichettato con un tag o un watermark “honest AI” che consente alle persone di identificare facilmente le copie AI generate.

Reality Defender è solo uno degli strumenti e di una piattaforma di responsabilità AI completa che la AI Foundation sta cercando di creare. La AI Foundation sta perseguendo la creazione di Guardian AI, una piattaforma di responsabilità costruita sul principio che gli individui dovrebbero avere accesso ad agenti AI personali che lavorano per loro e che possono aiutare a proteggerli contro la loro sfruttamento da parte di attori malintenzionati. In sostanza, la AI Foundation mira a espandere la portata dell’AI nella società, portandola a più persone, mentre anche a proteggere contro i rischi dell’AI.

Reality Defender non è l’unico nuovo prodotto guidato da AI che mira a ridurre la disinformazione negli Stati Uniti. Un prodotto simile è chiamato SurfSafe, creato da due undergraduate di UC Berkeley, Rohan Phadte e Ash Bhat. Secondo The Verge, SurfSafe funziona consentendo agli utenti di fare clic su un pezzo di media di cui sono curiosi e il programma eseguirà una ricerca di immagine inversa e cercherà di trovare contenuti simili da varie fonti attendibili su Internet, segnalando le immagini note per essere state modificate.

Non è chiaro quanto efficaci saranno queste soluzioni nel lungo termine. Il professore del Dartmouth College e l’esperto di forensi Hany Farid è stato citato da The Verge come dicendo che è “estremamente scettico” che piani come Reality Defender funzioneranno in modo significativo. Farid ha spiegato che una delle sfide principali nel rilevamento di contenuti falsi è che i media non sono puramente falsi o reali. Farid ha spiegato:

“C’è un continuum; una gamma incredibilmente complessa di questioni da affrontare. Alcuni cambiamenti sono insignificanti, e alcuni alterano fondamentalmente la natura di un’immagine. Pretendere di poter addestrare un AI a rilevare la differenza è incredibilmente ingenuo. E pretendere di poter crowdsourcing è ancora più così.”

Inoltre, è difficile includere elementi di crowdsourcing, come l’etichettatura dei falsi positivi, perché gli esseri umani sono generalmente molto cattivi nel rilevare immagini false. Gli esseri umani spesso commettono errori e perdono dettagli sottili che segnalano un’immagine come falsa. Non è chiaro come affrontare gli attori malintenzionati che trollano quando segnalano contenuti.

Sembra probabile che, per essere il più efficace possibile, gli strumenti di rilevamento di falsi debbano essere combinati con sforzi di alfabetizzazione digitale che insegnano alle persone come ragionare sui contenuti con cui interagiscono online.

Blogger e programmatore con specializzazioni in Machine Learning e Deep Learning argomenti. Daniel spera di aiutare gli altri a utilizzare il potere dell'AI per il bene sociale.