Leader di pensiero
Nel 2024, i Deepfakes stanno diventando di tendenza. Ecco come le aziende possono proteggersi

Da almeno le elezioni del 2016, quando le preoccupazioni sull’informazione fuorviante sono esplose nella coscienza pubblica, gli esperti hanno suonato l’allarme sui deepfakes. Le implicazioni di questa tecnologia erano – e rimangono – terrificanti. La proliferazione incontrollata di media sintetici iper-realistichi rappresenta una minaccia per tutti – dai politici alle persone comuni. In un ambiente già caratterizzato da una diffusa sfiducia, i deepfakes hanno promesso di alimentare ulteriormente le fiamme.
Come si è scoperto, le nostre paure erano premature. La competenza tecnica necessaria per creare effettivamente i deepfakes, insieme alla loro qualità spesso scadente, ha significato che per almeno gli ultimi due cicli elettorali presidenziali, sono rimasti un problema minimo.
Ma tutto questo sta per cambiare – sta già cambiando. Negli ultimi due anni, la tecnologia di intelligenza artificiale generativa è entrata nel mainstream, semplificando radicalmente il processo di creazione di deepfakes per il consumatore medio. Queste stesse innovazioni hanno aumentato notevolmente la qualità dei deepfakes, tanto che, in un test alla cieca, la maggior parte delle persone non sarebbe in grado di distinguere un video contraffatto dal vero.
Quest’anno, in particolare, abbiamo iniziato a vedere indizi di come questa tecnologia potrebbe influenzare la società se non si prendono misure per combatterla. Lo scorso anno, ad esempio, una foto generata da AI di Papa Francesco che indossa un cappotto insolitamente elegante è diventata virale e molti l’hanno ritenuta autentica. Mentre ciò potrebbe sembrare, a un certo livello, un innocuo divertimento, rivela la pericolosa potenza di questi deepfakes e quanto sia difficile fermare la disinformazione una volta che ha iniziato a diffondersi. Possiamo aspettarci di trovare esempi meno divertenti – e molto più pericolosi – di questo tipo di contraffazione virale nei prossimi mesi e anni.
Per questo motivo, è imperativo che le organizzazioni di ogni tipo – dai media alle finanze ai governi alle piattaforme di social media – adottino un approccio proattivo verso la rilevazione dei deepfakes e la verifica dell’autenticità dei contenuti. Una cultura di fiducia attraverso salvaguardie deve essere stabilita ora, prima che un’onda di deepfakes possa spazzare via la nostra comprensione condivisa della realtà.
Comprendere la minaccia dei deepfakes
Prima di addentrarci in ciò che le organizzazioni possono fare per combattere questo aumento di deepfakes, vale la pena elaborare su perché gli strumenti di salvaguardia sono necessari. Di solito, coloro che sono preoccupati per i deepfakes citano il loro potenziale effetto sulla politica e sulla fiducia sociale. Queste conseguenze potenziali sono estremamente importanti e non dovrebbero essere trascurate in alcuna conversazione sui deepfakes. Ma come si verifica, l’aumento di questa tecnologia ha effetti potenzialmente disastrosi in più settori dell’economia statunitense.
Prendiamo ad esempio l’assicurazione. Al momento, la frode assicurativa annuale negli Stati Uniti ammonta a 308,6 miliardi di dollari – un numero grosso modo un quarto delle dimensioni dell’intero settore. Allo stesso tempo, le operazioni back-end della maggior parte delle società di assicurazione sono sempre più automatizzate, con il 70% delle richieste standard che dovrebbe essere senza intervento umano entro il 2025. Ciò significa che le decisioni sono sempre più prese con un minimo intervento umano: self-service sul front-end e automazione facilitata da AI sul back-end.
Ironia della sorte, la stessa tecnologia che ha permesso questo aumento dell’automazione – ovvero l’apprendimento automatico e l’intelligenza artificiale – ha garantito il suo sfruttamento da parte di attori malintenzionati. È ora più facile che mai per la persona media manipolare le richieste – ad esempio, utilizzando programmi di intelligenza artificiale generativa come Dall-E, Midjourney o Stable Diffusion per far apparire un’auto più danneggiata di quanto non sia. Già esistono app specifiche a questo scopo, come Dude Your Car!, che consente agli utenti di creare artificialmente ammaccature nelle foto delle loro auto.
Lo stesso si applica ai documenti ufficiali, che possono ora essere facilmente manipolati – con fatture, valutazioni di underwriting e persino firme modificate o inventate integralmente. Questa capacità è un problema non solo per le assicurazioni, ma per l’intera economia. È un problema per le istituzioni finanziarie, che devono verificare l’autenticità di una vasta gamma di documenti. È un problema per i dettaglianti, che potrebbero ricevere una lamentela che un prodotto è arrivato difettoso, accompagnata da un’immagine contraffatta.
Le aziende semplicemente non possono operare con questo grado di incertezza. Un certo grado di frode è probabilmente sempre inevitabile, ma con i deepfakes, non stiamo parlando di frode ai margini – stiamo parlando di un potenziale disastro epistemologico in cui le aziende non hanno alcun mezzo chiaro per determinare la verità dalla finzione e finiscono per perdere miliardi di dollari a causa di questa confusione.
Combattere il fuoco con il fuoco: come l’AI può aiutare
Quindi, cosa si può fare per combattere questo? Forse non sorprendentemente, la risposta giace nella stessa tecnologia che facilita i deepfakes. Se vogliamo fermare questa piaga prima che acquisti più slancio, dobbiamo combattere il fuoco con il fuoco. L’AI può aiutare a generare deepfakes – ma può anche, fortunatamente, aiutare a identificarli automaticamente e su larga scala.
Utilizzando gli strumenti AI giusti, le aziende possono automaticamente determinare se una data fotografia, video o documento è stato manomesso. Portando decine di modelli diversi al compito di identificazione dei falsi, l’AI può automaticamente dire alle aziende se una data fotografia o video è sospetto. Come gli strumenti che le aziende stanno già utilizzando per automatizzare le operazioni quotidiane, questi strumenti possono funzionare in background senza gravare sul personale già oberato o sottrarre tempo a progetti importanti.
Se e quando una fotografia viene identificata come potenzialmente alterata, il personale umano può quindi essere allertato e può valutare direttamente il problema, aiutato dalle informazioni fornite dall’AI. Utilizzando l’analisi deep-scan, può dire alle aziende perché ritiene che una fotografia sia probabilmente stata contraffatta – puntando, ad esempio, a metadati alterati manualmente, all’esistenza di immagini identiche in tutto il web, a varie irregolarità fotografiche, ecc.
Nessuno di questo è per denigrare i progressi incredibili che abbiamo visto nella tecnologia di intelligenza artificiale generativa negli ultimi anni, che hanno effettivamente applicazioni utili e produttive in vari settori. Ma la potenza – per non parlare della semplicità – di questa tecnologia emergente garantisce quasi la sua manipolazione da parte di coloro che cercano di manipolare le organizzazioni, sia per guadagno personale che per seminare il caos sociale.
Le organizzazioni possono avere il meglio di entrambi i mondi: i benefici di produttività dell’AI senza gli svantaggi dei deepfakes onnipresenti. Ma fare ciò richiede un nuovo grado di vigilanza, soprattutto considerando il fatto che gli output della tecnologia di intelligenza artificiale generativa stanno diventando sempre più persuasivi, dettagliati e realistici di giorno in giorno. Più presto le organizzazioni rivolgono la loro attenzione a questo problema, più presto potranno raccogliere i pieni benefici di un mondo automatizzato.










