Suivez nous sur

Comment les escrocs utilisent l'IA dans la fraude bancaire

Cybersécurité

Comment les escrocs utilisent l'IA dans la fraude bancaire

mm

L'IA a permis aux fraudeurs de contourner les contrĂ´les anti-usurpation d'identitĂ© et la vĂ©rification vocale, leur permettant ainsi de produire des pièces d'identitĂ© et des documents financiers contrefaits avec une rapiditĂ© remarquable. Leurs mĂ©thodes sont devenues de plus en plus inventives avec l'Ă©volution des technologies gĂ©nĂ©ratives. Comment les consommateurs peuvent-ils se protĂ©ger et que peuvent faire les institutions financières pour les aider ?

1. Les deepfakes renforcent l'arnaque Ă  l'imposteur 

L'IA a permis la plus grande escroquerie par imposteur jamais enregistrĂ©e. En 2024, Arup, une sociĂ©tĂ© de conseil en ingĂ©nierie basĂ©e au Royaume-Uni, perdu environ 25 millions de dollars Après que des fraudeurs ont piĂ©gĂ© un employĂ© pour lui faire transfĂ©rer des fonds lors d'une visioconfĂ©rence en direct, ils ont clonĂ© numĂ©riquement de vĂ©ritables dirigeants, dont le directeur financier.  

Les deepfakes utilisent des algorithmes générateurs et discriminateurs pour créer une copie numérique et évaluer le réalisme, ce qui leur permet d'imiter de manière convaincante les traits du visage et la voix d'une personne. Grâce à l'IA, les criminels peuvent en créer une. en utilisant seulement une minute d'un son et d'une photographie. Ces images artificielles, clips audio ou vidéos pouvant être préenregistrés ou diffusés en direct, peuvent apparaître n'importe où.

2. Les modèles génératifs envoient de faux avertissements de fraude

Un modèle gĂ©nĂ©ratif peut envoyer simultanĂ©ment des milliers de fausses alertes Ă  la fraude. Imaginez quelqu'un piratant un site web d'Ă©lectronique grand public. Ă€ mesure que des commandes importantes arrivent, l'IA appelle les clients pour les informer que la banque a signalĂ© la transaction comme frauduleuse. Elle leur demande leur numĂ©ro de compte et les rĂ©ponses Ă  leurs questions de sĂ©curitĂ©, les invitant Ă  vĂ©rifier leur identitĂ©. 

Un appel urgent et les implications d'une fraude peuvent inciter les clients à divulguer leurs informations bancaires et personnelles. L'IA, capable d'analyser de vastes quantités de données en quelques secondes, peut rapidement se référer à des faits réels pour rendre l'appel plus convaincant.

3. La personnalisation de l'IA facilite la prise de contrĂ´le des comptes 

Bien qu'un cybercriminel puisse s'introduire par force brute en devinant sans cesse des mots de passe, il utilise souvent des identifiants volĂ©s. Il modifie immĂ©diatement le mot de passe, l'adresse e-mail de secours et le numĂ©ro d'authentification multifacteur pour empĂŞcher le vĂ©ritable titulaire du compte de l'expulser. Les professionnels de la cybersĂ©curitĂ© peuvent se dĂ©fendre contre ces tactiques car ils en connaissent les tenants et aboutissants. L'IA introduit des variables inconnues, ce qui affaiblit leurs dĂ©fenses. 

La personnalisation est l'arme la plus dangereuse dont disposent les escrocs. Ils ciblent souvent les personnes. pendant les périodes de pointe de trafic Lorsque de nombreuses transactions ont lieu, comme le Black Friday, pour rendre la détection des fraudes plus difficile. Un algorithme pourrait adapter les heures d'envoi en fonction des habitudes d'achat, des habitudes d'achat ou des préférences de messagerie d'une personne, augmentant ainsi sa probabilité d'engagement.

La génération avancée de langage et le traitement rapide permettent la génération massive d'e-mails, l'usurpation de domaine et la personnalisation de contenu. Même si des individus malveillants envoient dix fois plus de messages, chacun paraîtra authentique, convaincant et pertinent.

4. L'IA générative réorganise l'arnaque des faux sites Web

La technologie gĂ©nĂ©rative permet de tout faire, de la conception de maquettes Ă  l'organisation de contenu. Un escroc peut dĂ©bourser une fortune pour crĂ©er et modifier en quelques secondes un faux site web d'investissement, de prĂŞt ou de banque, sans code. 

Contrairement Ă  une page d'hameçonnage classique, elle peut se mettre Ă  jour en temps quasi rĂ©el et rĂ©pondre aux interactions. Par exemple, si une personne appelle le numĂ©ro de tĂ©lĂ©phone indiquĂ© ou utilise le chat en direct, elle peut ĂŞtre connectĂ©e Ă  un modèle formĂ© pour se comporter comme un conseiller financier ou un employĂ© de banque. 

Dans un cas similaire, des escrocs ont cloné la plateforme Exante. Cette fintech mondiale donne accès à plus d'un million d'instruments financiers sur des dizaines de marchés. Les victimes pensaient donc investir légalement. Or, elles déposaient des fonds sans le savoir sur un compte JPMorgan Chase.

Natalia Taft, responsable de la conformité chez Exante, a déclaré que l'entreprise avait découvert « un certain nombre » d'escroqueries similaires, ce qui suggère que la première n'était pas un cas isolé. a déclaré que les escrocs ont fait un excellent travail Clonage de l'interface du site web. Elle a expliqué que les outils d'IA l'avaient probablement créé parce qu'il s'agissait d'un « jeu de rapidité » et qu'ils devaient « toucher le plus de victimes possible avant d'être démantelés ».

5. Les algorithmes contournent les outils de détection de vivacité

La dĂ©tection de l'activitĂ© utilise la biomĂ©trie en temps rĂ©el pour dĂ©terminer si la personne devant la camĂ©ra est rĂ©elle et correspond Ă  l'identitĂ© du titulaire du compte. En thĂ©orie, contourner l'authentification devient plus complexe, empĂŞchant ainsi l'utilisation d'anciennes photos ou vidĂ©os. Cependant, cette mĂ©thode est moins efficace qu'auparavant, en raison des deepfakes alimentĂ©s par l'IA. 

Les cybercriminels pourraient utiliser cette technologie pour imiter de vraies personnes et accĂ©lĂ©rer le piratage de comptes. Ils pourraient Ă©galement piĂ©ger l'outil afin qu'il vĂ©rifie une fausse identitĂ©, facilitant ainsi le trafic d'argent. 

Les escrocs n'ont pas besoin d'entraĂ®ner un modèle pour y parvenir : ils peuvent acheter une version prĂ©-entraĂ®nĂ©e. Une solution logicielle prĂ©tend pouvoir contourner cinq L'un des outils de dĂ©tection d'activitĂ© les plus populaires utilisĂ©s par les entreprises fintech pour un achat unique de 2,000 XNUMX $. Les publicitĂ©s pour ce type d'outils abondent sur des plateformes comme Telegram, dĂ©montrant la facilitĂ© avec laquelle la fraude bancaire moderne se pratique.

6. Les identités IA permettent la fraude aux nouveaux comptes

Les fraudeurs peuvent utiliser la technologie gĂ©nĂ©rative pour usurper l'identitĂ© d'une personne. Sur le dark web, de nombreux sites proposent de faux documents d'État, comme des passeports et des permis de conduire. Ils fournissent Ă©galement de faux selfies et de faux relevĂ©s financiers. 

Une identitĂ© synthĂ©tique est une identitĂ© créée en combinant des informations rĂ©elles et fictives. Par exemple, le numĂ©ro de sĂ©curitĂ© sociale peut ĂŞtre rĂ©el, mais le nom et l'adresse ne le sont pas. Par consĂ©quent, ils sont plus difficiles Ă  dĂ©tecter avec les outils conventionnels. Le rapport 2021 sur les tendances en matière d'identitĂ© et de fraude indique environ 33% de faux positifs Equifax considère qu'il s'agit d'identitĂ©s synthĂ©tiques. 

Des escrocs professionnels aux budgets gĂ©nĂ©reux et aux ambitions ambitieuses se crĂ©ent de nouvelles identitĂ©s grâce Ă  des outils gĂ©nĂ©ratifs. Ils cultivent leur identitĂ© en Ă©tablissant un historique financier et de crĂ©dit. Ces actions lĂ©gitimes trompent les logiciels de connaissance client, leur permettant de passer inaperçus. Ils finissent par Ă©puiser leur crĂ©dit et disparaissent avec des revenus nets positifs. 

Bien que ce processus soit plus complexe, il se déroule de manière passive. Des algorithmes avancés, entraînés aux techniques de fraude, peuvent réagir en temps réel. Ils savent quand effectuer un achat, rembourser une dette de carte de crédit ou contracter un prêt, comme un humain, ce qui leur permet d'échapper à la détection.

Ce que les banques peuvent faire pour se défendre contre ces escroqueries liées à l'IA

Les consommateurs peuvent se protéger en créant des mots de passe complexes et en faisant preuve de prudence lorsqu'ils partagent leurs informations personnelles ou leurs comptes. Les banques devraient redoubler d'efforts pour se défendre contre la fraude liée à l'IA, car elles sont responsables de la sécurisation et de la gestion des comptes.

1. Utiliser des outils d'authentification multifactorielle

Les deepfakes ayant compromis la sĂ©curitĂ© biomĂ©trique, les banques devraient plutĂ´t privilĂ©gier l'authentification multifactorielle. MĂŞme si un escroc parvient Ă  voler les identifiants de connexion d'une personne, il ne peut pas y accĂ©der. 

Les institutions financières devraient conseiller à leurs clients de ne jamais divulguer leur code MFA. L'IA est un outil puissant pour les cybercriminels, mais elle ne peut pas contourner de manière fiable les codes d'accès à usage unique sécurisés. L'hameçonnage est l'un des seuls moyens qu'elle utilise pour y parvenir.

2. Améliorer les normes de connaissance du client

La KYC est une norme de services financiers exigeant des banques qu'elles vĂ©rifient l'identitĂ©, le profil de risque et les dossiers financiers de leurs clients. Bien que les prestataires de services opĂ©rant dans des zones d'ombre juridique ne soient pas techniquement soumis Ă  la KYC, de nouvelles règles impactent la DeFi. n'entrera pas en vigueur jusqu’en 2027 — c’est une bonne pratique Ă  l’échelle de l’industrie. 

Les identités synthétiques, dotées d'un historique de transactions légitime et soigneusement entretenu depuis des années, sont convaincantes, mais sujettes aux erreurs. Par exemple, une simple ingénierie rapide peut forcer un modèle génératif à révéler sa véritable nature. Les banques devraient intégrer ces techniques à leurs stratégies.

3. Utiliser l'analyse comportementale avancĂ©e 

Une bonne pratique pour lutter contre l'IA consiste Ă  combattre le feu par le feu. L'analyse comportementale, basĂ©e sur un système d'apprentissage automatique, peut collecter simultanĂ©ment une quantitĂ© considĂ©rable de donnĂ©es sur des dizaines de milliers de personnes. Elle peut tout suivre, des mouvements de souris aux journaux d'accès horodatĂ©s. Un changement soudain indique une prise de contrĂ´le de compte. 

Bien que les modèles avancés puissent imiter les habitudes d'achat ou de crédit d'une personne s'ils disposent de suffisamment de données historiques, ils ne sauront pas comment imiter la vitesse de défilement, les modèles de balayage ou les mouvements de la souris, ce qui donne aux banques un avantage subtil.

4. Effectuer des Ă©valuations complètes des risques 

Les banques devraient procĂ©der Ă  une Ă©valuation des risques lors de la crĂ©ation d'un compte afin de prĂ©venir la fraude et de refuser les ressources des mules financières. Elles peuvent commencer par rechercher les divergences de nom, d'adresse et de numĂ©ro de sĂ©curitĂ© sociale. 

Bien que les identités synthétiques soient convaincantes, elles ne sont pas infaillibles. Une recherche approfondie dans les archives publiques et les réseaux sociaux révélerait qu'elles sont apparues récemment. Un professionnel pourrait les supprimer avec le temps, empêchant ainsi le trafic d'argent et la fraude financière.

Une limite temporaire de blocage ou de transfert en attente de vérification pourrait empêcher les acteurs malveillants de créer et de supprimer massivement des comptes. Si rendre le processus moins intuitif pour les utilisateurs réels peut engendrer des frictions, cela pourrait permettre aux consommateurs d'économiser des milliers, voire des dizaines de milliers de dollars à long terme.

Protéger les clients contre les escroqueries et les fraudes liées à l'IA

L'IA pose un sérieux problème aux banques et aux entreprises de technologie financière, car les acteurs malveillants n'ont pas besoin d'être experts, ni même de posséder de solides compétences techniques, pour exécuter des escroqueries sophistiquées. De plus, ils n'ont pas besoin de créer un modèle spécialisé. Ils peuvent simplement débrider une version générique. Ces outils étant très accessibles, les banques doivent se montrer proactives et vigilantes.

Zac Amos est un rédacteur technique qui se concentre sur l'intelligence artificielle. Il est également éditeur de fonctionnalités chez Repirater, où vous pouvez lire plus de son travail.