Connect with us

IA et prévention des crimes financiers : pourquoi les banques ont besoin d’une approche équilibrée

Leaders d’opinion

IA et prévention des crimes financiers : pourquoi les banques ont besoin d’une approche équilibrée

mm

L’IA est une monnaie à deux faces pour les banques : même si elle ouvre de nombreuses possibilités pour des opérations plus efficaces, elle peut également poser des risques externes et internes.

Les criminels financiers utilisent la technologie pour produire des vidéos deepfake, des voix et des documents faux qui peuvent passer inaperçus aux ordinateurs et aux humains, ou pour amplifier les activités de fraude par e-mail. Aux États-Unis seulement, l’IA générative devrait accélérer les pertes dues à la fraude à un taux de croissance annuel de 32 %, pour atteindre 40 milliards de dollars US d’ici 2027, selon un rapport récent de Deloitte.

Peut-être, alors, la réponse des banques devrait-elle être de s’équiper de meilleurs outils, en exploitant l’IA à travers la prévention des crimes financiers. Les institutions financières commencent en effet à déployer l’IA dans les efforts de lutte contre les crimes financiers (AFC) – pour surveiller les transactions, générer des rapports d’activité suspecte, automatiser la détection de la fraude et plus encore. Cela a le potentiel d’accélérer les processus tout en augmentant la précision.

Le problème est que les banques ne mettent pas en balance l’implémentation de l’IA avec le jugement humain. Sans un humain dans la boucle, l’adoption de l’IA peut affecter la conformité, les préjugés et l’adaptabilité aux nouvelles menaces.

Nous croyons en une approche hybride prudente de l’adoption de l’IA dans le secteur financier, qui continuera à nécessiter une contribution humaine.

La différence entre les systèmes AFC basés sur des règles et les systèmes AFC basés sur l’IA

Traditionnellement, les systèmes AFC – et en particulier les systèmes de lutte contre le blanchiment d’argent (AML) – ont fonctionné avec des règles fixes établies par les équipes de conformité en réponse aux réglementations. Dans le cas de la surveillance des transactions, par exemple, ces règles sont mises en œuvre pour signaler les transactions en fonction de critères prédéfinis spécifiques, tels que des seuils de montant de transaction ou des facteurs de risque géographique.

L’IA présente une nouvelle façon de dépister les risques de crime financier. Les modèles d’apprentissage automatique peuvent être utilisés pour détecter des modèles suspects en fonction d’une série de jeux de données en constante évolution. Le système analyse les transactions, les données historiques, le comportement des clients et les données contextuelles pour surveiller tout ce qui est suspect, tout en apprenant au fil du temps, offrant une surveillance de la criminalité adaptative et potentiellement plus efficace.

Cependant, même si les systèmes basés sur des règles sont prévisibles et facilement auditable, les systèmes basés sur l’IA introduisent un élément complexe de « boîte noire » en raison de processus de prise de décision opaques. Il est plus difficile de retracer le raisonnement d’un système IA pour signaler un comportement suspect, étant donné que de nombreux éléments sont impliqués. Cela peut voir l’IA parvenir à une conclusion en fonction de critères obsolètes, ou fournir des informations incorrectes, sans que cela soit immédiatement détectable. Cela peut également causer des problèmes pour la conformité réglementaire d’une institution financière.

Les défis réglementaires possibles

Les institutions financières doivent se conformer à des normes réglementaires strictes, telles que la directive AMLD de l’UE et la Loi sur le secret bancaire des États-Unis, qui exigent une prise de décision claire et traçable. Les systèmes IA, en particulier les modèles d’apprentissage profond, peuvent être difficiles à interpréter.

Pour assurer la responsabilité tout en adoptant l’IA, les banques ont besoin d’une planification soigneuse, de tests approfondis, de cadres de conformité spécialisés et d’une surveillance humaine. Les humains peuvent valider les décisions automatisées en interprétant, par exemple, le raisonnement derrière une transaction signalée, la rendant explicable et défendable aux régulateurs.

Les institutions financières sont également sous une pression croissante pour utiliser des outils IA explicables (XAI) pour rendre les décisions basées sur l’IA compréhensibles pour les régulateurs et les auditeurs. L’XAI est un processus qui permet aux humains de comprendre la sortie d’un système IA et sa prise de décision sous-jacente.

Le jugement humain est nécessaire pour une vue d’ensemble

L’adoption de l’IA ne peut pas donner lieu à une complaisance avec les systèmes automatisés. Les analystes humains apportent un contexte et un jugement que l’IA ne possède pas, permettant une prise de décision nuancée dans des cas complexes ou ambigus, qui reste essentielle dans les enquêtes sur les crimes financiers.

Parmi les risques de dépendance à l’égard de l’IA, il y a la possibilité d’erreurs (par exemple, de faux positifs, de faux négatifs) et de préjugés. L’IA peut être sujette à des faux positifs si les modèles ne sont pas bien réglés ou sont formés à partir de données biaisées. Même si les humains sont également sujets à des préjugés, le risque supplémentaire de l’IA est qu’il peut être difficile d’identifier les préjugés au sein du système.

De plus, les modèles IA fonctionnent avec les données qui leur sont fournies – ils peuvent ne pas détecter des modèles suspects nouveaux ou rares en dehors des tendances historiques, ou basés sur des connaissances du monde réel. Un remplacement total des systèmes basés sur des règles par l’IA pourrait laisser des angles morts dans la surveillance des crimes financiers.

Dans les cas de préjugés, d’ambiguïté ou de nouveauté, les crimes financiers nécessitent un œil discernant que l’IA ne peut pas fournir. Dans le même temps, si nous devions supprimer les humains du processus, cela pourrait gravement entraver la capacité de vos équipes à comprendre les modèles de crime financier, à repérer les modèles et à identifier les tendances émergentes. Cela pourrait rendre plus difficile la mise à jour de tout système automatisé.

Une approche hybride : combiner les systèmes AFC basés sur des règles et les systèmes AFC basés sur l’IA

Les institutions financières peuvent combiner une approche basée sur des règles avec des outils IA pour créer un système à plusieurs couches qui exploite les forces de ces deux approches. Un système hybride rendra l’implémentation de l’IA plus précise à long terme et plus flexible pour répondre aux menaces de crime financier émergentes, sans sacrifier la transparence.

Pour ce faire, les institutions peuvent intégrer des modèles IA avec une rétroaction humaine continue. L’apprentissage adaptatif des modèles s’améliorera ainsi non seulement en fonction des modèles de données, mais également en fonction de la contribution humaine qui l’affine et le rééquilibre.

Tous les systèmes IA ne sont pas égaux. Les modèles IA doivent subir des tests continus pour évaluer leur précision, leur équité et leur conformité, avec des mises à jour régulières basées sur les changements réglementaires et les nouvelles informations sur les menaces, telles que celles identifiées par vos équipes AFC.

Les experts en risques et en conformité doivent être formés à l’IA, ou un expert IA doit être embauché dans l’équipe, pour garantir que le développement et le déploiement de l’IA sont exécutés dans certaines limites. Ils doivent également élaborer des cadres de conformité spécifiques à l’IA, établissant un chemin pour se conformer aux réglementations dans un secteur émergent pour les experts en conformité.

Dans le cadre de l’adoption de l’IA, il est important que tous les éléments de l’organisation soient informés des capacités des nouveaux modèles IA avec lesquels ils travaillent, mais également de leurs limites (telles que les préjugés potentiels), afin de les rendre plus sensibles aux erreurs potentielles.

Votre organisation doit également prendre d’autres considérations stratégiques pour préserver la sécurité et la qualité des données. Il est essentiel d’investir dans une infrastructure de données sécurisée et de haute qualité et de garantir qu’elles sont formées à partir de jeux de données précis et diversifiés.

L’IA est et continuera d’être à la fois une menace et un outil de défense pour les banques. Mais ils ont besoin de gérer cette nouvelle technologie puissante correctement pour éviter de créer des problèmes plutôt que de les résoudre.

Gabriella Bussien est la PDG de l'organisation de prévention des crimes financiers à vocation technologique Trapets, leader du marché nordique depuis 2000. Elle compte plus de 20 ans d'expérience dans le développement d'entreprises et la gestion des risques au sein d'organisations telles que Morgan Stanley et Thomson Reuters.