Suivez nous sur

Intelligence artificielle

Deepfakes et IA : aperçus du rapport 2024 sur l'intelligence vocale et la sécurité de Pindrop

mm
Le kit de préparation mis à jour on

Les progrès rapides de l’intelligence artificielle (IA) ont apporté des avantages significatifs et des changements transformateurs dans divers secteurs. Toutefois, elle a également introduit de nouveaux risques et défis, notamment en matière de fraude et sécurité. Deepfakes, un produit de IA générative, deviennent de plus en plus sophistiqués et constituent une menace importante pour l'intégrité des systèmes de sécurité vocaux.

Les conclusions de Rapport 2024 sur l'intelligence vocale et la sécurité de Pindrop, soulignent l'impact des deepfakes sur divers secteurs, les avancées technologiques à l'origine de ces menaces et les solutions innovantes développées pour les combattre.

L’essor des Deepfakes : une épée à double tranchant

Les deepfakes utilisent des fonctionnalités avancées algorithmes d'apprentissage automatique pour créer des images très réalistes contenu audio et vidéo synthétique. Si ces technologies ont des applications passionnantes dans les domaines du divertissement et des médias, elles présentent également de sérieux défis en matière de sécurité. Selon le rapport de Pindrop, les consommateurs américains sont les plus préoccupés par le risque de deepfakes et de clonages vocaux dans le secteur bancaire et financier, 67.5 % d'entre eux exprimant une inquiétude importante.

Impact sur les institutions financières

Les institutions financières sont particulièrement vulnérables aux attaques de deepfake. Les fraudeurs utilisent les voix générées par l’IA pour usurper l’identité d’individus, obtenir un accès non autorisé à des comptes et manipuler des transactions financières. Le rapport révèle qu'il y a eu un nombre record de compromissions de données en 2023, totalisant 3,205 78 incidents, soit une augmentation de 9.5 % par rapport à l'année précédente. Le coût moyen d’une violation de données aux États-Unis s’élève désormais à XNUMX millions de dollars, les centres de contact supportant le plus gros des conséquences en matière de sécurité.

Un cas notable concernait l'utilisation d'un une fausse voix pour tromper une entreprise basée à Hong Kong et lui faire transférer 25 millions de dollars, soulignant le potentiel dévastateur de ces technologies lorsqu’elles sont utilisées à des fins malveillantes.

Menaces plus larges contre les médias et la politique

Au-delà des services financiers, les deepfakes présentent également des risques importants pour les médias et les institutions politiques. La capacité de créer de faux contenus audio et vidéo convaincants peut être utilisée pour diffuser des informations erronées, manipuler l’opinion publique et saper la confiance dans les processus démocratiques. Le rapport note que 54.9 % des consommateurs s'inquiètent de la menace que représentent les deepfakes pour les institutions politiques, tandis que 54.5 % s'inquiètent de leur impact sur les médias.

En 2023, la technologie deepfake a été impliquée dans plusieurs incidents très médiatisés, dont un attaque par appel automatisé utilisant une voix synthétique du président Biden. De tels incidents soulignent l’urgence de développer des mécanismes robustes de détection et de prévention.

Les avancées technologiques à l’origine des Deepfakes

La prolifération d'outils d'IA générative, tels que ChatGPT d'OpenAI, Bard de Google et Bing AI de Microsoft, a considérablement réduit les obstacles à la création de deepfakes. Aujourd'hui, plus de 350 systèmes d'IA générative sont utilisés pour diverses applications, notamment Eleven Labs, Descript, Podcastle, PlayHT et Speechify. Le modèle VALL-E de Microsoft, par exemple, peut cloner une voix à partir d'un clip audio de trois secondes seulement.

Ces progrès technologiques ont rendu les deepfakes moins chers et plus faciles à produire, augmentant ainsi leur accessibilité à la fois aux utilisateurs inoffensifs et aux acteurs malveillants. D'ici 2025, Gartner prédit que 80 % des offres d’IA conversationnelle intégreront l’IA générative, contre 20 % en 2023..

Combattre les Deepfakes : les innovations de Pindrop

Pour faire face à la menace croissante des deepfakes, Pindrop a introduit plusieurs solutions de pointe. L'un des plus remarquables est le Garantie Pulse Deepfake, une garantie unique en son genre qui rembourse les clients éligibles si la suite de produits Pindrop ne parvient pas à détecter un deepfake ou une autre fraude vocale synthétique. Cette initiative vise à offrir une tranquillité d’esprit aux clients tout en repoussant les limites des capacités de détection des fraudes.

Solutions technologiques pour améliorer la sécurité

Le rapport de Pindrop met en évidence l'efficacité de sa technologie de détection d'activité, qui analyse les appels téléphoniques en direct pour détecter des caractéristiques spectro-temporelles indiquant si la voix lors de l'appel est « en direct » ou synthétique. Lors de tests internes, la solution de détection d'activité de Pindrop s'est avérée 12 % plus précise que les systèmes de reconnaissance vocale et 64 % plus précise que les humains pour identifier les voix synthétiques.

De plus, Pindrop utilise une prévention et une authentification multifactorielles intégrées de la fraude, en exploitant les signaux de la voix, des appareils, du comportement, des métadonnées de l'opérateur et de l'activité pour améliorer la sécurité. Cette approche à plusieurs niveaux relève considérablement la barre pour les fraudeurs, ce qui rend leur réussite de plus en plus difficile.

Tendances futures et préparation

Pour l'avenir, rapporter les prévisions Cette fraude par deepfake continuera à augmenter, posant un risque de 5 milliards de dollars aux centres de contact rien qu'aux États-Unis. La sophistication croissante des systèmes de synthèse vocale, combinée à une technologie vocale synthétique à faible coût, présente des défis permanents.

Pour garder une longueur d'avance sur ces menaces, Pindrop recommande des techniques de détection précoce des risques, telles que la détection de l'usurpation d'identité de l'appelant et la détection continue de la fraude, pour surveiller et atténuer les activités frauduleuses en temps réel. En mettant en œuvre ces mesures de sécurité avancées, les organisations peuvent mieux se protéger contre le paysage changeant de la fraude basée sur l’IA.

Conclusion

L’émergence des deepfakes et de l’IA générative représente un défi important dans le domaine de la fraude et de la sécurité. Le rapport 2024 sur l'intelligence vocale et la sécurité de Pindrop souligne le besoin urgent de solutions innovantes pour lutter contre ces menaces. Grâce aux progrès en matière de détection d'activité, d'authentification multifacteur et de stratégies complètes de prévention de la fraude, Pindrop est à l'avant-garde des efforts visant à sécuriser l'avenir des interactions vocales. À mesure que le paysage technologique continue d’évoluer, nos approches visant à garantir la sécurité et la confiance à l’ère numérique doivent également évoluer.

Partenaire fondateur d'unite.AI et membre du Conseil technologique de Forbes, Antoine est un futuriste qui est passionné par l'avenir de l'IA et de la robotique.

Il est également le fondateur de Titres.io, un site Web axé sur l'investissement dans les technologies de rupture.