Seguici sui social

Intelligenza Artificiale

Deepfake e intelligenza artificiale: approfondimenti dal rapporto 2024 sull'intelligence vocale e sulla sicurezza di Pindrop

mm
aggiornato on

Il rapido progresso dell’intelligenza artificiale (AI) ha apportato vantaggi significativi e cambiamenti trasformativi in ​​vari settori. Tuttavia, ha anche introdotto nuovi rischi e sfide, in particolare per quanto riguarda frode e problemi di. Deepfakes, un prodotto di IA generativa, stanno diventando sempre più sofisticati e rappresentano una minaccia sostanziale per l'integrità dei file sistemi di sicurezza basati sulla voce.

I risultati da Rapporto 2024 sull'intelligence vocale e sulla sicurezza di Pindrop, evidenziano l'impatto dei deepfake su vari settori, i progressi tecnologici alla base di queste minacce e le soluzioni innovative sviluppate per combatterle.

L’ascesa dei Deepfake: un’arma a doppio taglio

I deepfake utilizzano funzionalità avanzate algoritmi di apprendimento automatico per creare altamente realistico contenuti audio e video sintetici. Sebbene queste tecnologie abbiano interessanti applicazioni nel campo dell’intrattenimento e dei media, presentano anche gravi sfide in termini di sicurezza. Secondo il rapporto di Pindrop, i consumatori statunitensi sono i più preoccupati per il rischio di deepfake e clonazioni vocali nel settore bancario e finanziario, con il 67.5% che esprime una preoccupazione significativa.

Impatto sulle istituzioni finanziarie

Gli istituti finanziari sono particolarmente vulnerabili agli attacchi deepfake. I truffatori utilizzano voci generate dall'intelligenza artificiale per impersonare individui, ottenere accesso non autorizzato ai conti e manipolare le transazioni finanziarie. Il rapporto rivela che nel 2023 si è verificato un numero record di compromissioni di dati, per un totale di 3,205 incidenti, con un aumento del 78% rispetto all’anno precedente. Il costo medio di una violazione dei dati negli Stati Uniti ammonta ora a 9.5 milioni di dollari, e i contact center subiscono il peso maggiore delle ricadute sulla sicurezza.

Un caso degno di nota riguardava l'uso di a voce deepfake per ingannare un'azienda con sede a Hong Kong inducendola a trasferire 25 milioni di dollari, evidenziando il potenziale devastante di queste tecnologie se utilizzate in modo dannoso.

Minacce più ampie ai media e alla politica

Oltre ai servizi finanziari, I deepfake comportano rischi significativi anche per i media e le istituzioni politiche. La capacità di creare contenuti audio e video falsi e convincenti può essere utilizzata per diffondere disinformazione, manipolare l’opinione pubblica e minare la fiducia nei processi democratici. Il rapporto rileva che il 54.9% dei consumatori è preoccupato per la minaccia dei deepfake alle istituzioni politiche, mentre il 54.5% è preoccupato per il loro impatto sui media.

Nel 2023, la tecnologia deepfake è stata implicata in diversi incidenti di alto profilo, tra cui a attacco robotico che ha utilizzato la voce sintetica del presidente Biden. Tali incidenti sottolineano l’urgenza di sviluppare robusti meccanismi di rilevamento e prevenzione.

I progressi tecnologici alla base dei deepfake

La proliferazione di strumenti di intelligenza artificiale generativa, come ChatGPT di OpenAI, Bard di Google e Bing AI di Microsoft, ha ridotto significativamente le barriere alla creazione di deepfake. Oggi vengono utilizzati oltre 350 sistemi di intelligenza artificiale generativa per varie applicazioni, tra cui Eleven Labs, Descript, Podcastle, PlayHT e Speechify. Il modello VALL-E di Microsoft, ad esempio, può clonare una voce da una clip audio di soli tre secondi.

Questi progressi tecnologici hanno reso i deepfake più economici e più facili da produrre, aumentandone l’accessibilità sia agli utenti benigni che agli attori malintenzionati. Entro il 2025, Gartner prevede che l’80% delle offerte di IA conversazionale incorporerà l’IA generativa, rispetto al 20% nel 2023.

Combattere i Deepfakes: le innovazioni di Pindrop

Per affrontare la crescente minaccia dei deepfake, Pindrop ha introdotto diverse soluzioni all’avanguardia. Uno dei più notevoli è il Garanzia Pulse Deepfake, una garanzia unica nel suo genere che rimborsa i clienti idonei se la suite di prodotti Pindrop non riesce a rilevare un deepfake o altre frodi vocali sintetiche. Questa iniziativa mira a garantire tranquillità ai clienti spingendo al contempo al massimo le capacità di rilevamento delle frodi.

Soluzioni tecnologiche per migliorare la sicurezza

Il rapporto di Pindrop evidenzia l'efficacia della sua tecnologia di rilevamento della vivacità, che analizza le chiamate telefoniche in diretta per caratteristiche spettro-temporali che indicano se la voce nella chiamata è "dal vivo" o sintetica. Nei test interni, la soluzione di rilevamento della vivacità di Pindrop si è rivelata più accurata del 12% rispetto ai sistemi di riconoscimento vocale e del 64% più accurata rispetto agli esseri umani nell'identificazione delle voci sintetiche.

Inoltre, Pindrop utilizza la prevenzione e l'autenticazione antifrode multifattore integrate, sfruttando la voce, il dispositivo, il comportamento, i metadati dell'operatore e i segnali di attività per migliorare la sicurezza. Questo approccio a più livelli alza notevolmente il livello dei truffatori, rendendo loro sempre più difficile avere successo.

Tendenze future e preparazione

Guardando al futuro, il riportare le previsioni che le frodi deepfake continueranno ad aumentare, mettendo a rischio 5 miliardi di dollari per i contact center solo negli Stati Uniti. La crescente sofisticazione dei sistemi di sintesi vocale, combinata con la tecnologia vocale sintetica a basso costo, presenta sfide continue.

Per stare al passo con queste minacce, Pindrop consiglia tecniche di rilevamento precoce dei rischi, come il rilevamento dello spoofing dell’ID chiamante e il rilevamento continuo delle frodi, per monitorare e mitigare le attività fraudolente in tempo reale. Implementando queste misure di sicurezza avanzate, le organizzazioni possono proteggersi meglio dal panorama in evoluzione delle frodi basate sull’intelligenza artificiale.

Conclusione

L’emergere dei deepfake e dell’intelligenza artificiale generativa rappresenta una sfida significativa nel campo delle frodi e della sicurezza. Il Voice Intelligence and Security Report 2024 di Pindrop sottolinea l’urgente necessità di soluzioni innovative per combattere queste minacce. Con i progressi nel rilevamento della vitalità, nell'autenticazione a più fattori e nelle strategie complete di prevenzione delle frodi, Pindrop è in prima linea negli sforzi per proteggere il futuro delle interazioni basate sulla voce. Poiché il panorama tecnologico continua ad evolversi, anche i nostri approcci per garantire sicurezza e fiducia nell’era digitale devono evolversi.

Socio fondatore di unite.AI e membro di Consiglio tecnologico di Forbes, Antonio è un futurista che è appassionato del futuro dell'intelligenza artificiale e della robotica.

È anche il Fondatore di Titoli.io, un sito web che si concentra sugli investimenti in tecnologie dirompenti.