Des leaders d'opinion
L’IA et la prévention de la criminalité financière : pourquoi les banques ont besoin d’une approche équilibrée

L’IA est une pièce à double face pour les banques : si elle ouvre de nombreuses possibilités pour des opérations plus efficaces, elle peut également présenter des risques externes et internes.
Les criminels financiers exploitent la technologie pour produire vidéos deepfake, des voix et des documents falsifiés qui peuvent échapper à la détection informatique et humaine, ou pour dynamiser les activités de fraude par courrier électronique. Rien qu'aux États-Unis, l'IA générative devrait accélérer les pertes dues à la fraude à un taux de croissance annuel de 32 %, pour atteindre 40 milliards de dollars d'ici 2027, selon une étude récente rapport de Deloitte.
Les banques devraient peut-être se doter d’outils encore plus performants, en exploitant l’IA dans la prévention de la criminalité financière. Les institutions financières commencent en effet à déployer l’IA dans leurs efforts de lutte contre la criminalité financière (AFC) – pour surveiller les transactions, générer des rapports d’activité suspecte, automatiser la détection des fraudes, etc. Ces outils ont le potentiel d’accélérer les processus tout en augmentant la précision.
Le problème se pose lorsque les banques ne parviennent pas à équilibrer la mise en œuvre de l'IA avec le jugement humain. Sans intervention humaine, l'adoption de l'IA peut affecter la conformité, les préjugés et l'adaptabilité aux nouvelles menaces.
Nous croyons en une approche prudente et hybride de l’adoption de l’IA dans le secteur financier, une approche qui continuera à nécessiter l’intervention humaine.
La différence entre les systèmes AFC basés sur des règles et ceux basés sur l'IA
Traditionnellement, les systèmes de lutte contre le blanchiment d’argent (LBC) et en particulier les systèmes de lutte contre le blanchiment d’argent (LBC) fonctionnent selon des règles fixes définies par les équipes de conformité en réponse aux réglementations. Dans le cas de la surveillance des transactions, par exemple, ces règles sont mises en œuvre pour signaler les transactions en fonction de critères prédéfinis spécifiques, tels que les seuils de montant des transactions ou les facteurs de risque géographiques.
L’IA présente une nouvelle façon de détecter les risques de criminalité financière. Les modèles d’apprentissage automatique peuvent être utilisés pour détecter des tendances suspectes à partir d’une série d’ensembles de données en constante évolution. Le système analyse les transactions, les données historiques, le comportement des clients et les données contextuelles pour détecter tout élément suspect, tout en apprenant au fil du temps, offrant une surveillance adaptative et potentiellement plus efficace de la criminalité.
Cependant, alors que les systèmes basés sur des règles sont prévisibles et facilement vérifiables, les systèmes pilotés par l'IA introduisent un élément complexe de « boîte noire » en raison de processus décisionnels opaques. Il est plus difficile de retracer le raisonnement d'un système d'IA pour signaler un comportement suspect, étant donné le grand nombre d'éléments impliqués. Cela peut amener l'IA à tirer une certaine conclusion sur la base de critères obsolètes ou à fournir des informations factuellement incorrectes, sans que cela soit immédiatement détectable. Cela peut également poser des problèmes de conformité réglementaire pour une institution financière.
Défis réglementaires possibles
Les institutions financières doivent se conformer à des normes réglementaires strictes, telles que celles de l'UE. LMAD et les États-Unis Loi sur le secret bancaire, qui imposent une prise de décision claire et traçable. Les systèmes d’IA, en particulier les modèles d’apprentissage profond, peuvent être difficiles à interpréter.
Pour garantir la responsabilité lors de l’adoption de l’IA, les banques doivent planifier soigneusement, effectuer des tests approfondis, mettre en place des cadres de conformité spécialisés et faire appel à une supervision humaine. Les humains peuvent valider les décisions automatisées, par exemple en interprétant le raisonnement qui sous-tend une transaction signalée, la rendant ainsi explicable et défendable aux yeux des régulateurs.
Les institutions financières subissent également une pression croissante pour utiliser IA explicable (XAI) outils permettant aux régulateurs et aux auditeurs de comprendre les décisions prises par l'IA. XAI est un processus qui permet aux humains de comprendre le résultat d'un système d'IA et sa prise de décision sous-jacente.
Le jugement humain est nécessaire pour une vision holistique
L'adoption de l'IA ne doit pas céder la place à la complaisance à l'égard des systèmes automatisés. Les analystes humains apportent un contexte et un jugement qui font défaut à l'IA, ce qui permet une prise de décision nuancée dans les cas complexes ou ambigus, ce qui reste essentiel dans les enquêtes de l'AFC.
Parmi les risques liés à la dépendance à l'IA figurent la possibilité d'erreurs (par exemple, de faux positifs, de faux négatifs) et de biais. L'IA peut être sujette à de faux positifs si les modèles ne sont pas bien réglés ou sont formés sur des données biaisées. Si les humains sont également sensibles aux biais, le risque supplémentaire de l'IA est qu'il peut être difficile d'identifier les biais au sein du système.
De plus, les modèles d’IA fonctionnent sur la base des données qui leur sont transmises. Ils ne peuvent donc pas détecter de nouveaux modèles suspects ou rares en dehors des tendances historiques ou des informations du monde réel. Un remplacement complet des systèmes basés sur des règles par l’IA pourrait laisser des angles morts dans la surveillance des AFC.
En cas de partialité, d’ambiguïté ou de nouveauté, l’AFC a besoin d’un œil perspicace que l’IA ne peut pas fournir. En même temps, si nous devions retirer les humains du processus, cela pourrait sérieusement entraver la capacité de vos équipes à comprendre les schémas de la criminalité financière, à repérer les tendances et à identifier les tendances émergentes. En retour, cela pourrait rendre plus difficile la mise à jour des systèmes automatisés.
Une approche hybride : combiner un AFC basé sur des règles et un AFC piloté par l'IA
Les institutions financières peuvent combiner une approche fondée sur des règles avec des outils d’IA pour créer un système multicouche qui exploite les atouts des deux approches. Un système hybride rendra la mise en œuvre de l’IA plus précise à long terme et plus flexible pour faire face aux nouvelles menaces de criminalité financière, sans sacrifier la transparence.
Pour ce faire, les institutions peuvent intégrer des modèles d’IA avec un retour d’information humain continu. L’apprentissage adaptatif des modèles se développerait donc non seulement en fonction des modèles de données, mais aussi en fonction des apports humains qui les affinent et les rééquilibrent.
Tous les systèmes d'IA ne sont pas égaux. Les modèles d'IA doivent être soumis à des tests continus pour évaluer leur précision, leur équité et leur conformité, avec des mises à jour régulières basées sur les changements réglementaires et les nouvelles informations sur les menaces identifiées par vos équipes AFC.
Les experts en risques et en conformité doivent être formés à l’IA, ou un expert en IA doit être embauché au sein de l’équipe, pour garantir que le développement et le déploiement de l’IA s’effectuent dans le respect de certaines règles. Ils doivent également élaborer des cadres de conformité spécifiques à l’IA, établissant ainsi une voie vers le respect de la réglementation dans un secteur émergent pour les experts en conformité.
Dans le cadre de l’adoption de l’IA, il est important que tous les éléments de l’organisation soient informés des capacités des nouveaux modèles d’IA avec lesquels ils travaillent, mais aussi de leurs lacunes (comme les biais potentiels), afin de les rendre plus attentifs aux erreurs potentielles.
Votre organisation doit également prendre en compte d'autres considérations stratégiques afin de préserver la sécurité et la qualité des données. Il est essentiel d'investir dans une infrastructure de données sécurisée et de haute qualité et de veiller à ce qu'elle soit formée sur des ensembles de données précis et diversifiés.
L’intelligence artificielle est et restera à la fois une menace et un outil de défense pour les banques. Mais elles doivent gérer correctement cette nouvelle technologie puissante pour éviter de créer des problèmes au lieu d’en résoudre.