Intelligenza Artificiale
Deepfake e intelligenza artificiale: approfondimenti dal rapporto 2024 sull'intelligence vocale e sulla sicurezza di Pindrop
Il rapido progresso dell’intelligenza artificiale (AI) ha apportato vantaggi significativi e cambiamenti trasformativi in vari settori. Tuttavia, ha anche introdotto nuovi rischi e sfide, in particolare per quanto riguarda frode sicurezza. Deepfakes, un prodotto di IA generativa, stanno diventando sempre più sofisticati e rappresentano una minaccia sostanziale per l'integrità dei file sistemi di sicurezza basati sulla voce.
I risultati da Rapporto 2024 di Pindrop su intelligence vocale e sicurezza, evidenziano l'impatto dei deepfake su vari settori, i progressi tecnologici alla base di queste minacce e le soluzioni innovative sviluppate per combatterle.
L’ascesa dei Deepfake: un’arma a doppio taglio
I deepfake utilizzano funzionalità avanzate algoritmi di apprendimento automatico per creare altamente realistico contenuti audio e video sinteticiSebbene queste tecnologie abbiano applicazioni entusiasmanti nell'intrattenimento e nei media, presentano anche gravi sfide per la sicurezza. Secondo il rapporto di Pindrop, i consumatori statunitensi sono particolarmente preoccupati per il rischio di deepfake e cloni vocali nel settore bancario e finanziario, con il 67.5% che esprime notevole preoccupazione.
Impatto sulle istituzioni finanziarie
Gli istituti finanziari sono particolarmente vulnerabili agli attacchi deepfake. I truffatori utilizzano voci generate dall'intelligenza artificiale per impersonare individui, ottenere accesso non autorizzato ai conti e manipolare le transazioni finanziarie. Il rapporto rivela che nel 2023 si è verificato un numero record di compromissioni di dati, per un totale di 3,205 incidenti, con un aumento del 78% rispetto all’anno precedente. Il costo medio di una violazione dei dati negli Stati Uniti ammonta ora a 9.5 milioni di dollari, e i contact center subiscono il peso maggiore delle ricadute sulla sicurezza.
Un caso degno di nota riguardava l'uso di a voce deepfake per ingannare un'azienda con sede a Hong Kong inducendola a trasferire 25 milioni di dollari, evidenziando il potenziale devastante di queste tecnologie se utilizzate in modo dannoso.
Minacce più ampie ai media e alla politica
Oltre ai servizi finanziari, I deepfake comportano rischi significativi anche per i media e le istituzioni politiche. La capacità di creare contenuti audio e video falsi e convincenti può essere utilizzata per diffondere disinformazione, manipolare l’opinione pubblica e minare la fiducia nei processi democratici. Il rapporto rileva che il 54.9% dei consumatori è preoccupato per la minaccia dei deepfake alle istituzioni politiche, mentre il 54.5% è preoccupato per il loro impatto sui media.
Nel 2023, la tecnologia deepfake è stata implicata in diversi incidenti di alto profilo, tra cui a attacco robotico che ha utilizzato la voce sintetica del presidente Biden. Tali incidenti sottolineano l’urgenza di sviluppare robusti meccanismi di rilevamento e prevenzione.
I progressi tecnologici alla base dei deepfake
La proliferazione di strumenti di intelligenza artificiale generativa, come ChatGPT di OpenAI, Bard di Google e Bing AI di Microsoft, ha notevolmente ridotto le barriere alla creazione di deepfake. Oggi, oltre 350 sistemi di intelligenza artificiale generativa vengono utilizzati per varie applicazioni, tra cui Eleven Labs, Descript, Podcastle, PlayHT e Speechify. Il modello VALL-E di Microsoft, ad esempio, può clonare una voce da una clip audio di soli tre secondi.
Questi progressi tecnologici hanno reso i deepfake più economici e più facili da produrre, aumentandone l’accessibilità sia agli utenti benigni che agli attori malintenzionati. Entro il 2025, Gartner prevede che l’80% delle offerte di IA conversazionale incorporerà l’IA generativa, rispetto al 20% nel 2023.
Combattere i deepfake: le innovazioni di Pindrop
Per affrontare la crescente minaccia dei deepfake, Pindrop ha introdotto diverse soluzioni all’avanguardia. Uno dei più notevoli è il Garanzia Pulse Deepfake, una garanzia unica nel suo genere che rimborsa i clienti idonei se la suite di prodotti Pindrop non riesce a rilevare un deepfake o altre frodi vocali sintetiche. Questa iniziativa mira a garantire tranquillità ai clienti spingendo al contempo al massimo le capacità di rilevamento delle frodi.
Soluzioni tecnologiche per migliorare la sicurezza
Il rapporto di Pindrop evidenzia l'efficacia della sua tecnologia di rilevamento della vivacità, che analizza le chiamate telefoniche in tempo reale alla ricerca di caratteristiche spettro-temporali che indicano se la voce della chiamata è "live" o sintetica. Nei test interni, la soluzione di rilevamento della vivacità di Pindrop ha dimostrato di essere più accurata del 12% rispetto ai sistemi di riconoscimento vocale e del 64% rispetto agli esseri umani nell'identificare le voci sintetiche.
Inoltre, Pindrop utilizza la prevenzione e l'autenticazione antifrode multifattore integrate, sfruttando la voce, il dispositivo, il comportamento, i metadati dell'operatore e i segnali di attività per migliorare la sicurezza. Questo approccio a più livelli alza notevolmente il livello dei truffatori, rendendo loro sempre più difficile avere successo.
Tendenze future e preparazione
Guardando al futuro, il riportare le previsioni che le frodi deepfake continueranno ad aumentare, mettendo a rischio 5 miliardi di dollari per i contact center solo negli Stati Uniti. La crescente sofisticazione dei sistemi di sintesi vocale, combinata con la tecnologia vocale sintetica a basso costo, presenta sfide continue.
Per stare al passo con queste minacce, Pindrop consiglia tecniche di rilevamento precoce dei rischi, come il rilevamento dello spoofing dell’ID chiamante e il rilevamento continuo delle frodi, per monitorare e mitigare le attività fraudolente in tempo reale. Implementando queste misure di sicurezza avanzate, le organizzazioni possono proteggersi meglio dal panorama in evoluzione delle frodi basate sull’intelligenza artificiale.
Conclusione
L'emergere dei deepfake e dell'intelligenza artificiale generativa rappresenta una sfida significativa nel campo delle frodi e della sicurezza. Il rapporto 2024 di Pindrop su Voice Intelligence e Sicurezza sottolinea l'urgente necessità di soluzioni innovative per contrastare queste minacce. Grazie ai progressi nel rilevamento della presenza in tempo reale, nell'autenticazione a più fattori e nelle strategie complete di prevenzione delle frodi, Pindrop è in prima linea negli sforzi per garantire il futuro delle interazioni vocali. Con la continua evoluzione del panorama tecnologico, devono evolversi anche i nostri approcci per garantire sicurezza e fiducia nell'era digitale.










