mozzicone Cosa sono i deepfake? - Unite.AI
Seguici sui social

AI 101

Cosa sono i deepfake?

mm
aggiornato on

Man mano che i deepfake diventano più facili da realizzare e più prolifici, viene prestata loro maggiore attenzione. I deepfake sono diventati il ​​punto focale delle discussioni sull’etica dell’IA, sulla disinformazione, sull’apertura delle informazioni e di Internet e sulla regolamentazione. Vale la pena essere informati sui deepfake e avere una comprensione intuitiva di cosa siano i deepfake. Questo articolo chiarirà la definizione di deepfake, ne esaminerà i casi d'uso, discuterà come rilevare i deepfake ed esaminerà le implicazioni dei deepfake per la società.

Cosa sono i deepfake?

Prima di continuare a discutere ulteriormente dei deepfake, sarebbe utile prendersi del tempo e chiarire cosa sono effettivamente i "deepfake".. C'è una notevole quantità di confusione riguardo al termine Deepfake, e spesso il termine viene applicato erroneamente a qualsiasi media falsificato, indipendentemente dal fatto che si tratti o meno di un vero deepfake. Per qualificarsi come Deepfake, i supporti falsi in questione devono essere generati con un sistema di apprendimento automatico, in particolare una rete neurale profonda.

L’ingrediente chiave dei deepfake è l’apprendimento automatico. L’apprendimento automatico ha consentito ai computer di generare automaticamente video e audio in modo relativamente rapido e semplice. Le reti neurali profonde vengono addestrate su filmati di una persona reale affinché la rete possa apprendere come le persone appaiono e si muovono nelle condizioni ambientali target. La rete addestrata viene quindi utilizzata sulle immagini di un altro individuo e aumentata con ulteriori tecniche di computer grafica per combinare la nuova persona con il filmato originale. Un algoritmo di codifica viene utilizzato per determinare le somiglianze tra la faccia originale e la faccia di destinazione. Una volta isolate le caratteristiche comuni dei volti, viene utilizzato un secondo algoritmo AI chiamato decoder. Il decodificatore esamina le immagini codificate (compresse) e le ricostruisce in base alle caratteristiche delle immagini originali. Vengono utilizzati due decodificatori, uno sul volto del soggetto originale e il secondo sul volto della persona target. Affinché lo scambio possa essere effettuato, al decodificatore addestrato sulle immagini della persona X vengono alimentate le immagini della persona Y. Il risultato è che il volto della persona Y è una ricostruzione sulle espressioni facciali e sull'orientamento della persona X.

Attualmente, ci vuole ancora un bel po' di tempo per realizzare un deepfake. Il creatore del falso deve dedicare molto tempo alla regolazione manuale dei parametri del modello, poiché parametri non ottimali porteranno a imperfezioni evidenti e difetti dell'immagine che tradiscono la vera natura del falso.

Sebbene si presuma spesso che la maggior parte dei deepfake sia realizzata con un tipo di rete neurale chiamata a rete contraddittoria generativa (GAN), molti (forse la maggior parte) dei deepfake creati in questi giorni non fanno affidamento sui GAN. Sebbene i GAN abbiano svolto un ruolo di primo piano nella creazione dei primi deepfake, la maggior parte dei video deepfake viene creata con metodi alternativi, secondo Siwei Lyu del SUNY Buffalo.

Ci vuole una quantità sproporzionatamente grande di dati di addestramento per addestrare un GAN e i GAN spesso impiegano molto più tempo per eseguire il rendering di un'immagine rispetto ad altre tecniche di generazione di immagini. I GAN sono anche migliori per la generazione di immagini statiche rispetto ai video, poiché i GAN hanno difficoltà a mantenere la coerenza da un fotogramma all'altro. È molto più comune utilizzare un codificatore e più decodificatori per creare deepfake.

A cosa servono i deepfake?

Molti dei deepfake trovati online sono di natura pornografica. Secondo una ricerca condotta da Deeptrace, una società di intelligenza artificiale, su un campione di circa 15,000 video deepfake ripresi nel settembre del 2019, circa il 95% di essi era di natura pornografica. Un'implicazione preoccupante di questo fatto è che man mano che la tecnologia diventa più facile da usare, gli episodi di falso revenge porn potrebbero aumentare.

Tuttavia, non tutti i deep fake sono di natura pornografica. Esistono usi più legittimi per la tecnologia deepfake. La tecnologia audio deepfake potrebbe aiutare le persone a trasmettere le loro voci normali dopo che sono state danneggiate o perse a causa di malattia o infortunio. I deepfake possono essere utilizzati anche per nascondere i volti di persone che si trovano in situazioni sensibili e potenzialmente pericolose, pur consentendo la lettura delle loro labbra e delle loro espressioni. La tecnologia Deepfake può potenzialmente essere utilizzata per migliorare il doppiaggio di film in lingua straniera, aiutare nella riparazione di supporti vecchi e danneggiati e persino creare nuovi stili artistici.

Deepfake non video

Mentre la maggior parte delle persone pensa ai video falsi quando sente il termine "deepfake", i video falsi non sono affatto l'unico tipo di media falso prodotto con la tecnologia deepfake. La tecnologia Deepfake viene utilizzata anche per creare falsi di foto e audio. Come accennato in precedenza, i GAN vengono spesso utilizzati per generare immagini false. Si pensa che ci siano stati molti casi di falsi profili LinkedIn e Facebook che hanno immagini del profilo generate con algoritmi deepfake.

È anche possibile creare deepfake audio. Le reti neurali profonde sono addestrate per produrre cloni vocali/skin vocali di persone diverse, tra cui celebrità e politici. Un famoso esempio di Deepfake audio è quando la società di intelligenza artificiale Dessa fatto uso di un modello AI, supportato da algoritmi non AI, per ricreare la voce del conduttore del podcast Joe Rogan.

Come individuare i deepfake

Man mano che i deepfake diventano sempre più sofisticati, distinguerli dai media autentici diventerà sempre più difficile. Attualmente ci sono alcuni segni rivelatori le persone possono cercare di accertare se un video è potenzialmente un deepfake, come scarsa sincronizzazione labiale, movimenti innaturali, sfarfallio attorno al bordo del viso e deformazione di dettagli fini come capelli, denti o riflessi. Altri potenziali segni di un deepfake includono parti di qualità inferiore dello stesso video e battito irregolare degli occhi.

Sebbene questi segnali possano aiutare a individuare un deepfake al momento, poiché la tecnologia deepfake migliora, l'unica opzione per un rilevamento affidabile dei deepfake potrebbe essere altri tipi di intelligenza artificiale addestrati a distinguere i falsi dai media reali.

Le società di intelligenza artificiale, comprese molte delle grandi aziende tecnologiche, stanno ricercando metodi per rilevare i deepfake. Lo scorso dicembre è stata avviata una sfida per il rilevamento di deepfake, supportata da tre giganti della tecnologia: Amazon, Facebook e Microsoft. I team di ricerca di tutto il mondo hanno lavorato sui metodi per rilevare i deepfake, gareggiando per sviluppare i migliori metodi di rilevamento. Altri gruppi di ricercatori, come un gruppo di ricercatori combinati di Google e Jigsaw, stanno lavorando su un tipo di "face forensics" in grado di rilevare i video che sono stati alterati, rendendo i loro set di dati open source e incoraggiare gli altri a sviluppare metodi di rilevamento dei deepfake. La suddetta Dessa ha lavorato per perfezionare le tecniche di rilevamento dei deepfake, cercando di garantire che i modelli di rilevamento funzionino su video deepfake trovati in natura (su Internet) piuttosto che solo su set di dati di addestramento e test precomposti, come il set di dati open source fornito da Google.

Ci sono anche altre strategie che sono oggetto di indagine per far fronte alla proliferazione di deepfake. Ad esempio, controllare la concordanza dei video con altre fonti di informazione è una strategia. È possibile effettuare ricerche per video di eventi potenzialmente ripresi da altre angolazioni, oppure è possibile verificare eventuali incongruenze nei dettagli sullo sfondo del video (come modelli meteorologici e luoghi). Oltre questo, un sistema di registro online Blockchain potrebbe registrare i video quando vengono creati inizialmente, mantenendo l'audio e le immagini originali in modo che i video derivati ​​possano sempre essere controllati per la manipolazione.

In definitiva, è importante creare metodi affidabili per rilevare i deepfake e che questi metodi di rilevamento tengano il passo con i più recenti progressi nella tecnologia dei deepfake. Sebbene sia difficile sapere esattamente quali saranno gli effetti dei deepfake, se non ci sono metodi affidabili per rilevare i deepfake (e altre forme di media falsi), la disinformazione potrebbe potenzialmente dilagare e degradare la fiducia delle persone nella società e nelle istituzioni.

Implicazioni di Deepfakes

Quali sono i pericoli di permettere al deep fake di proliferare senza controllo?

Uno dei maggiori problemi che i deepfake creano attualmente è la pornografia non consensuale, progettata combinando i volti delle persone con video e immagini pornografici. Gli esperti di etica dell'IA temono che i deepfake vedranno un maggiore utilizzo nella creazione di fake revenge porn. Oltre a ciò, i deepfake potrebbero essere utilizzati per intimidire e danneggiare la reputazione di quasi tutti, in quanto potrebbero essere utilizzati per collocare le persone in scenari controversi e compromettenti.

Le aziende e gli specialisti della sicurezza informatica hanno espresso preoccupazione per l'uso di deepfake per facilitare truffe, frodi ed estorsioni. Presumibilmente, l'audio deepfake è stato utilizzato per convincere i dipendenti di un'azienda per trasferire denaro a truffatori

È possibile che i deepfake possano avere effetti dannosi anche oltre quelli sopra elencati. I deepfake potrebbero potenzialmente erodere la fiducia delle persone nei media in generale e rendere difficile per le persone distinguere tra notizie vere e notizie false. Se molti video sul web sono falsi, diventa più facile per governi, aziende e altri enti mettere in dubbio controversie legittime e pratiche non etiche.

Quando si tratta di governi, i deepfake possono persino rappresentare una minaccia per il funzionamento della democrazia. La democrazia richiede che i cittadini siano in grado di prendere decisioni informate sui politici sulla base di informazioni affidabili. La disinformazione mina i processi democratici. Ad esempio, il presidente del Gabon, Ali Bongo, è apparso in un video nel tentativo di rassicurare la cittadinanza del Gabon. Si presumeva che il presidente non stesse bene per un lungo periodo di tempo e la sua improvvisa apparizione un probabile video falso ha dato il via a un tentativo di colpo di stato. Il presidente Donald Trump ha affermato che una registrazione audio di lui si vantava di afferrare le donne per i genitali era falso, nonostante lo descriva anche come "chiacchiere da spogliatoio". Anche il principe Andrea ha affermato che un'immagine fornita dall'avvocato di Emily Maitilis era falsa, sebbene l'avvocato abbia insistito sulla sua autenticità.

In definitiva, mentre ci sono usi legittimi per la tecnologia deepfake, ci sono molti potenziali danni che possono derivare dall'uso improprio di tale tecnologia. Per questo motivo, è estremamente importante che vengano creati e mantenuti metodi per determinare l'autenticità dei media.