Connecteu-vos amb nosaltres

Intel·ligència Artificial

Deepfakes i IA: informació de l'informe de seguretat i intel·ligència de veu de Pindrop 2024

mm
actualitzat on

El ràpid avenç de la intel·ligència artificial (IA) ha comportat beneficis significatius i canvis transformadors en diverses indústries. Tanmateix, també ha introduït nous riscos i reptes, sobretot pel que fa a frau i seguretat. Deepfakes, un producte de IA generativa, són cada cop més sofisticats i suposen una amenaça substancial per a la integritat de sistemes de seguretat basats en veu.

Les troballes de Informe de seguretat i intel·ligència de veu de 2024 de Pindrop, destaquen l'impacte dels deepfakes en diversos sectors, els avenços tecnològics que impulsen aquestes amenaces i les solucions innovadores que s'estan desenvolupant per combatre-les.

L'ascens dels Deepfakes: una espasa de doble tall

Els deepfakes utilitzen avançats algorismes d'aprenentatge automàtic per crear altament realistes contingut sintètic d'àudio i vídeo. Tot i que aquestes tecnologies tenen aplicacions interessants en entreteniment i mitjans de comunicació, també presenten seriosos reptes de seguretat. Segons l'informe de Pindrop, els consumidors nord-americans estan més preocupats pel risc de deepfakes i clons de veu al sector bancari i financer, amb un 67.5% que expressa una preocupació important.

Impacte en les institucions financeres

Les institucions financeres són especialment vulnerables als atacs deepfake. Els estafadors utilitzen veus generades per IA per suplantar la identitat de persones, obtenir accés no autoritzat als comptes i manipular transaccions financeres. L'informe revela que hi va haver un nombre rècord de compromisos de dades el 2023, amb un total de 3,205 incidències, un 78% més que l'any anterior. El cost mitjà d'una violació de dades als Estats Units ara ascendeix a 9.5 milions de dòlars, amb els centres de contacte que porten el pes de la conseqüència de la seguretat.

Un cas notable va implicar l'ús d'a deepfake veu per enganyar una empresa amb seu a Hong Kong perquè transfereixi 25 milions de dòlars, destacant el potencial devastador d'aquestes tecnologies quan s'utilitzen de manera malintencionada.

Amenaces més àmplies per als mitjans de comunicació i la política

Més enllà dels serveis financers, Els deepfakes també suposen riscos significatius per als mitjans i les institucions polítiques. La capacitat de crear contingut d'àudio i vídeo fals convincent es pot utilitzar per difondre informació errònia, manipular l'opinió pública i minar la confiança en els processos democràtics. L'informe assenyala que el 54.9% dels consumidors estan preocupats per l'amenaça de falsificacions profundes a les institucions polítiques, mentre que el 54.5% es preocupa pel seu impacte en els mitjans.

El 2023, la tecnologia deepfake va estar implicada en diversos incidents d'alt perfil, inclòs a Atac de trucada automàtica que va utilitzar una veu sintètica del president Biden. Aquests incidents subratllen la urgència de desenvolupar mecanismes de detecció i prevenció sòlids.

Avenços tecnològics impulsant Deepfakes

La proliferació d'eines d'IA generativa, com ara ChatGPT d'OpenAI, Bard de Google i Bing AI de Microsoft, ha reduït significativament les barreres per crear deepfakes. Actualment, s'utilitzen més de 350 sistemes d'IA generativa per a diverses aplicacions, com ara Eleven Labs, Descript, Podcastle, PlayHT i Speechify. El model VALL-E de Microsoft, per exemple, pot clonar una veu a partir d'un clip d'àudio de tres segons.

Aquests avenços tecnològics han fet que les falsificacions profundes siguin més barates i més fàcils de produir, augmentant la seva accessibilitat tant per als usuaris benignes com per als actors maliciosos. El 2025, Gartner prediu que el 80% de les ofertes d'IA conversacional incorporaran IA generativa, més que el 20% el 2023..

Combatre els Deepfakes: les innovacions de Pindrop

Per fer front a l'amenaça creixent dels deepfakes, Pindrop ha introduït diverses solucions d'avantguarda. Un dels més destacats és el Garantia Pulse Deepfake, una garantia única d'aquest tipus que reemborsa els clients que compleixin els requisits si la suite de productes de Pindrop no detecta un deepfake o un altre frau sintètic de veu. Aquesta iniciativa té com a objectiu proporcionar tranquil·litat als clients alhora que augmenta el sobre en les capacitats de detecció de fraus.

Solucions tecnològiques per millorar la seguretat

L'informe de Pindrop destaca l'eficàcia de la seva tecnologia de detecció de vivacitat, que analitza les trucades telefòniques en directe per trobar característiques espectrotemporals que indiquen si la veu de la trucada és "en directe" o sintètica. En proves internes, es va trobar que la solució de detecció de vivacitat de Pindrop era un 12% més precisa que els sistemes de reconeixement de veu i un 64% més precisa que els humans per identificar veus sintètiques.

A més, Pindrop utilitza la prevenció i l'autenticació integrades de frau multifactorial, aprofitant la veu, el dispositiu, el comportament, les metadades de l'operador i els senyals de vida per millorar la seguretat. Aquest enfocament de diverses capes eleva significativament el llistó dels estafadors, cosa que fa que cada cop sigui més difícil que tinguin èxit.

Tendències futures i preparació

Mirant endavant, el informar les previsions aquest frau fals continuarà augmentant, suposant un risc de 5 milions de dòlars només per als centres de contacte als EUA. La creixent sofisticació dels sistemes de text a veu, combinada amb la tecnologia de veu sintètica de baix cost, presenta reptes constants.

Per mantenir-se al capdavant d'aquestes amenaces, Pindrop recomana tècniques de detecció primerenca de riscos, com ara la detecció de falsificacions d'identificació de trucades i la detecció contínua de fraus, per controlar i mitigar les activitats fraudulentes en temps real. Mitjançant la implementació d'aquestes mesures de seguretat avançades, les organitzacions es poden protegir millor contra el panorama en evolució del frau impulsat per la intel·ligència artificial.

Conclusió

L'aparició de deepfakes i IA generativa representa un repte important en l'àmbit del frau i la seguretat. L'Informe de seguretat i intel·ligència de veu de 2024 de Pindrop subratlla la necessitat urgent de solucions innovadores per combatre aquestes amenaces. Amb els avenços en la detecció de vida, l'autenticació multifactorial i les estratègies integrals de prevenció del frau, Pindrop està a l'avantguarda dels esforços per assegurar el futur de les interaccions basades en veu. A mesura que el panorama tecnològic continua evolucionant, també ho han de fer els nostres enfocaments per garantir la seguretat i la confiança en l'era digital.

Soci fundador de unit.AI i membre de la Consell Tecnològic de Forbes, Antoine és un futurista apassionat pel futur de la IA i la robòtica.

També és el fundador de Securities.io, un lloc web que se centra a invertir en tecnologia disruptiva.