Connect with us

Deepfakes et IA : Perspectives du Rapport 2024 de Pindrop sur l’Intelligence et la Sécurité Vocales

Intelligence artificielle

Deepfakes et IA : Perspectives du Rapport 2024 de Pindrop sur l’Intelligence et la Sécurité Vocales

mm

Le progrès rapide de l’intelligence artificielle (IA) a apporté des avantages et des changements transformateurs significatifs dans diverses industries. Cependant, il a également introduit de nouveaux risques et défis, en particulier lorsqu’il s’agit de fraude et de sécurité. Les deepfakes, un produit de l’intelligence artificielle générative, deviennent de plus en plus sophistiqués et représentent une menace substantielle pour l’intégrité des systèmes de sécurité basés sur la voix.

Les conclusions du Rapport 2024 de Pindrop sur l’Intelligence et la Sécurité Vocales mettent en évidence l’impact des deepfakes sur divers secteurs, les progrès technologiques qui alimentent ces menaces et les solutions innovantes en cours de développement pour les combattre.

L’essor des deepfakes : un glaive à deux tranchants

Les deepfakes utilisent des algorithmes d’apprentissage automatique avancés pour créer du contenu audio et vidéo synthétique très réaliste. Bien que ces technologies aient des applications passionnantes dans le divertissement et les médias, elles présentent également de graves défis de sécurité. Selon le rapport de Pindrop, les consommateurs américains sont les plus inquiets pour le risque de deepfakes et de clones vocaux dans le secteur bancaire et financier, avec 67,5 % exprimant une inquiétude significative.

Impact sur les institutions financières

Les institutions financières sont particulièrement vulnérables aux attaques de deepfakes. Les fraudeurs utilisent des voix générées par l’IA pour imiter des individus, accéder sans autorisation à des comptes et manipuler des transactions financières. Le rapport révèle qu’il y a eu un nombre record de failles de sécurité en 2023, totalisant 3 205 incidents, soit une augmentation de 78 % par rapport à l’année précédente. Le coût moyen d’une faille de sécurité aux États-Unis s’élève maintenant à 9,5 millions de dollars, les centres de contact supportant l’essentiel des conséquences de sécurité.

Un cas notable a impliqué l’utilisation d’une voix deepfake pour tromper une entreprise basée à Hong Kong et la convaincre de transférer 25 millions de dollars, mettant en évidence le potentiel dévastateur de ces technologies lorsqu’elles sont utilisées de manière malveillante.

Méfaçances plus larges pour les médias et la politique

Au-delà des services financiers, les deepfakes représentent également des risques importants pour les institutions médiatiques et politiques. La capacité à créer du contenu audio et vidéo faux convaincant peut être utilisée pour diffuser des informations fausses, manipuler l’opinion publique et miner la confiance dans les processus démocratiques. Le rapport note que 54,9 % des consommateurs s’inquiètent de la menace que les deepfakes représentent pour les institutions politiques, tandis que 54,5 % s’inquiètent de leur impact sur les médias.

En 2023, la technologie des deepfakes a été impliquée dans plusieurs incidents de premier plan, notamment une attaque de robocall utilisant une voix synthétique du président Biden. De tels incidents soulignent l’urgence de développer des mécanismes de détection et de prévention robustes.

Progrès technologiques qui alimentent les deepfakes

La prolifération d’outils d’IA générative, tels que ChatGPT d’OpenAI, Bard de Google et Bing AI de Microsoft, a considérablement réduit les barrières à la création de deepfakes. Aujourd’hui, plus de 350 systèmes d’IA générative sont utilisés pour diverses applications, notamment Eleven Labs, Descript, Podcastle, PlayHT et Speechify. Le modèle VALL-E de Microsoft, par exemple, peut cloner une voix à partir d’un extrait audio de seulement trois secondes.

Ces progrès technologiques ont rendu les deepfakes moins chers et plus faciles à produire, augmentant leur accessibilité aux utilisateurs benignes et malveillants. D’ici 2025, Gartner prévoit que 80 % des offres d’IA conversationnelles intégreront l’IA générative, contre 20 % en 2023.

Combattre les deepfakes : les innovations de Pindrop

Pour répondre à la menace croissante des deepfakes, Pindrop a introduit plusieurs solutions de pointe. L’une des plus notables est la Garantie Deepfake Pulse, une garantie sans précédent qui rembourse les clients éligibles si la Suite de produits de Pindrop ne parvient pas à détecter un deepfake ou une autre fraude vocale synthétique. Cette initiative vise à offrir une tranquillité d’esprit aux clients tout en poussant les limites des capacités de détection de la fraude.

Solutions technologiques pour améliorer la sécurité

Le rapport de Pindrop met en évidence l’efficacité de sa technologie de détection de vivacité, qui analyse les appels téléphoniques en direct pour des caractéristiques spectro-temporelles qui indiquent si la voix à l’appel est « vivante » ou synthétique. Lors de tests internes, la solution de détection de vivacité de Pindrop s’est révélée 12 % plus précise que les systèmes de reconnaissance vocale et 64 % plus précise que les humains pour identifier les voix synthétiques.

En outre, Pindrop emploie une prévention de fraude et une authentification multifacteurs intégrées, en exploitant la voix, le dispositif, le comportement, les métadonnées de l’opérateur et les signaux de vivacité pour renforcer la sécurité. Cette approche multiforme élève considérablement la barre pour les fraudeurs, les rendant de plus en plus difficiles à réussir.

Tendances futures et préparation

En regardant vers l’avenir, le rapport prévoit que la fraude de deepfake continuera d’augmenter, représentant un risque de 5 milliards de dollars pour les centres de contact aux États-Unis seulement. La sophistication croissante des systèmes de parole à texte, combinée à la technologie de parole synthétique à faible coût, présente des défis permanents.

Pour rester en tête de ces menaces, Pindrop recommande des techniques de détection précoce des risques, telles que la détection de l’usurpation d’identité de l’appelant et la détection continue de la fraude, pour surveiller et atténuer les activités frauduleuses en temps réel. En mettant en œuvre ces mesures de sécurité avancées, les organisations peuvent mieux se protéger contre le paysage évolutif de la fraude alimentée par l’IA.

Conclusion

L’émergence des deepfakes et de l’IA générative représente un défi important dans le domaine de la fraude et de la sécurité. Le Rapport 2024 de Pindrop sur l’Intelligence et la Sécurité Vocales souligne l’urgence de solutions innovantes pour combattre ces menaces. Avec les progrès de la détection de vivacité, de l’authentification multifacteurs et des stratégies de prévention de la fraude globales, Pindrop est à la pointe des efforts pour sécuriser l’avenir des interactions basées sur la voix. À mesure que le paysage technologique continue d’évoluer, nos approches pour assurer la sécurité et la confiance dans l’ère numérique doivent également évoluer.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.