Connect with us

Pourquoi vos analystes de fraude manuels peuvent regarder les mauvaises choses

Leaders d’opinion

Pourquoi vos analystes de fraude manuels peuvent regarder les mauvaises choses

mm
A male fraud analyst meticulously examines a physical paper document while sitting at a computer workstation in a modern office.

Selon une récente enquête sectorielle, près des trois quarts des établissements financiers vérifient encore manuellement une partie importante de leurs documents de revenus pour la fraude, avec beaucoup qui examinent jusqu’à la moitié de toutes les soumissions à la main. Étant donné l’émergence de modèles d’IA puissants capables de prise de décision automatisée sophistiquée, pourquoi autant de prêteurs s’appuient-ils encore sur des yeux humains pour détecter les feuilles de paie falsifiées et les relevés de compte bancaire altérés ?

La réponse va au-delà de l’inertie institutionnelle. Les analystes manuels apportent une valeur réelle, et les réviseurs expérimentés développent une reconnaissance de modèles difficile à reproduire algorithmiquement. Mais il y a une différence entre maintenir les humains dans le processus et les maintenir concentrés sur le travail qui utilise de manière unique le jugement humain. Beaucoup de prêteurs ne font pas cette distinction de manière suffisamment claire, et les conséquences se traduisent par des taux de fraude, des coûts de main-d’œuvre et une exposition à la fraude la plus difficile à détecter.

Ce que les analystes expérimentés apportent réellement à la table

Avant de plaider pour un changement, il est utile de comprendre ce que les analystes de fraude font particulièrement bien. Les analystes de fraude expérimentés ne sont pas des vérificateurs de cases. Un analyste qui a traité des milliers de documents de revenus au cours d’années de pratique a internalisé des indices que aucun ensemble de règles ne capture entièrement. Les analystes humains possèdent également quelque chose que les systèmes automatisés ne peuvent pas : la responsabilité institutionnelle et réglementaire. Ils comprennent la culture opérationnelle de leur entreprise, les attentes réglementaires, les tendances technologiques et d’autres connaissances de bon sens qui proviennent de vivre et de s’engager dans le monde. Les analystes peuvent également mettre en évidence des anomalies qui se situent en dehors des données d’entraînement de tout modèle, en particulier lorsque les réseaux de fraude opèrent de manière vraiment novatrice.

Intéressant, les limites de l’IA elle-même soulignent pourquoi la surveillance humaine est importante. Le Stanford HAI 2026 AI Index a documenté ce que les chercheurs appellent « l’intelligence déchiquetée » : des modèles avancés capables de passer des examens de science de niveau universitaire qui échouent néanmoins à des tâches que même un enfant peut accomplir, comme lire une horloge analogique, réussissant seulement environ la moitié du temps. L’IA peut détecter des réseaux de fraude complexes mais manquer des modèles de phishing de base. Ce profil de capacité inégale est un argument en faveur d’une surveillance humaine réfléchie, et non pour le statu quo.

Les limites difficiles que aucun analyste ne peut surmonter

Reconnaître ce que les analystes manuels font bien ne doit pas occulter ce qu’ils ne peuvent simplement pas faire. Les métadonnées de document sont invisibles à l’œil nu mais très révélatrices pour les outils de calcul : les dates de création, l’historique de modification, les signatures logicielles et les données GPS intégrées à une image scannée peuvent exposer un document falsifié en quelques secondes. Un réviseur humain ne verra jamais ces métadonnées.

Les données de consortium et de réseau se situent également en dehors de l’horizon d’observation d’un analyste. Détecter un seul numéro de sécurité sociale apparaissant dans plusieurs demandes de concessionnaires dans la même semaine est trivialement calculatoire et humainement impossible en volume. La détection de micro-incohérences suit la même logique : des changements de police subtiles, des altérations au niveau des pixels et des irrégularités de mise en page dans les documents falsifiés nécessitent une comparaison calculatoire pour être détectées de manière fiable. À mesure que le volume des prêts auto augmente, la révision manuelle ne peut pas suivre. Elle ne devient que plus coûteuse.

Le problème de mauvaise allocation

Le problème n’est pas que les prêteurs utilisent des analystes manuels. C’est qu’ils les utilisent sur les mauvais documents et les flux de travail. Lorsque les institutions examinent manuellement jusqu’à la moitié de leur volume de documents de revenus, les analystes passent la majeure partie de leur temps sur des soumissions que l’IA pourrait clarifier ou signaler automatiquement. Les documents qui nécessitent réellement un œil humain formé représentent une fraction de ce total.

La conséquence est prévisible. Les analystes deviennent fatigués et moins aiguisés précisément lorsqu’ils rencontrent les cas complexes et à haut risque qui nécessitent réellement leur expertise. La fraude la plus difficile se cache exactement dans les endroits où un réviseur fatigué travaillant sur une longue file d’attente est le moins équipé pour la trouver. Un coût de main-d’œuvre élevé, un débit plus faible et aucune amélioration significative des taux de détection de la fraude ne valent pas la peine d’être faits.

À quoi ressemble un modèle plus intelligent

La solution n’est pas d’éliminer la révision manuelle. C’est de la réaffecter. Les outils automatisés devraient gérer le volume : examiner les documents de revenus pour les signaux de fraude connus, les anomalies de métadonnées et les données de consortium. Cela libère les analystes pour se concentrer sur les cas limites, les appels, les escalades et les modèles de fraude novateurs que les outils d’IA ne sont pas en mesure de résoudre.

Les institutions oublient souvent une autre couche : l’IA surveillant l’IA. Les systèmes automatisés devraient suivre la façon dont les outils de prise de décision sont utilisés et si les résultats dérivent de manière à signaler une dégradation du modèle ou de nouveaux vecteurs de fraude. La surveillance humaine est la plus précieuse lorsqu’elle est positionnée aux points de levier, et non distribuée uniformément sur chaque document de la file d’attente. Des protocoles d’escalade clairs, avec des seuils définis qui sont auditées régulièrement, sont ce qui empêche ce modèle de revenir à l’habitude.

La dimension de conformité que les prêteurs ne peuvent ignorer

Les régulateurs prêtent une attention plus grande à la façon dont les décisions de détection de la fraude assistée par l’IA sont prises et qui en assume la responsabilité. Les institutions qui peuvent documenter un processus de révision étagé, avec un examen automatique de l’IA suivi d’un examen humain ciblé sur des critères définis, seront mieux positionnées que celles qui s’appuient sur une automatisation opaque ou une révision manuelle non différenciée. Un système à boîte noire que personne dans l’institution ne peut expliquer est une responsabilité, et non une solution.

Les responsables de la conformité doivent être suffisamment proches de la technologie pour comprendre ce que l’IA fait réellement, et non simplement approuver un système qu’ils n’ont jamais évalué. Cela nécessite un investissement dans la formation, la transparence des fournisseurs et une fonction d’audit continue qui maintient le jugement humain connecté de manière significative aux résultats automatisés.

La bonne question à poser

La constatation que trois quarts des prêteurs s’appuient encore fortement sur la révision de fraude manuelle n’est pas un scandale. Elle peut refléter une bonne intuition pour maintenir les humains responsables dans un processus à haut risque. Mais l’instinct n’est pas une stratégie. Le volume de révision manuelle qui se produit dans l’industrie ne reflète pas une décision délibérée sur où le jugement humain ajoute le plus de valeur. Il reflète l’habitude.

Chaque institution dans cet espace devrait se demander non pas s’il faut utiliser la révision manuelle, mais où l’utiliser, combien et sur quoi. Les prêteurs qui répondent clairement à cette question et construisent des flux de travail pour correspondre seront mieux à même de détecter la fraude, de dépenser moins pour le faire et seront bien mieux positionnés lorsque les régulateurs viendront demander comment les décisions ont été prises. Les analystes qui ont examiné des documents de routine méritent de travailler sur les cas qui ont réellement besoin d’eux.

Tom Oscherwitz est le conseiller général d'Informed. Il compte plus de 25 ans d'expérience en tant que régulateur gouvernemental senior (CFPB, Sénat américain) et en tant que directeur juridique fintech travaillant à l'intersection des données des consommateurs, de l'analyse et de la politique réglementaire. Pour plus d'informations, visitez www.informediq.com.