Connect with us

Por qué tus analistas de fraude manuales pueden estar mirando las cosas equivocadas

Líderes de opinión

Por qué tus analistas de fraude manuales pueden estar mirando las cosas equivocadas

mm
A male fraud analyst meticulously examines a physical paper document while sitting at a computer workstation in a modern office.

Según una reciente encuesta de la industria, casi tres cuartas partes de las instituciones financieras todavía verifican manualmente una parte significativa de sus documentos de ingresos en busca de fraude, con muchas revisando hasta la mitad de todas las presentaciones a mano. Dado el surgimiento de poderosos modelos de inteligencia artificial capaces de toma de decisiones automatizadas sofisticadas, ¿por qué tantos prestamistas siguen confiando en ojos humanos para detectar stubs de pago falsificados y estados de cuenta bancarios alterados?

La respuesta va más allá de la inercia institucional. Los analistas manuales aportan un valor genuino, y los revisores experimentados desarrollan un reconocimiento de patrones que es difícil de replicar algorítmicamente. Pero hay una diferencia entre mantener a los humanos en el proceso y mantenerlos enfocados en el trabajo que aprovecha de manera única el juicio humano. Muchos prestamistas no están haciendo esa distinción con suficiente claridad, y las consecuencias se manifiestan en las tasas de fraude, los costos laborales y la exposición al fraude que es más difícil de detectar.

Qué es lo que los analistas experimentados realmente aportan a la mesa

Antes de hacer el caso para el cambio, vale la pena entender qué es lo que los analistas de fraude hacen especialmente bien. Los analistas de fraude experimentados no son revisores de casillas. Un analista que ha procesado miles de documentos de ingresos durante años de práctica ha internalizado señales que no captura ningún conjunto de reglas. Los analistas humanos también llevan algo que los sistemas automatizados no pueden: rendición de cuentas institucional y regulatoria. Entienden la cultura operativa de su negocio, las expectativas regulatorias, las tendencias tecnológicas y otros conocimientos de sentido común que provienen de vivir y participar en el mundo. Los analistas también pueden detectar anomalías que caen fuera de los datos de entrenamiento de cualquier modelo, particularmente cuando los anillos de fraude operan de manera genuinamente novedosa.

Resulta interesante que las limitaciones de la inteligencia artificial en sí mismas subrayen por qué la supervisión humana es importante. El Índice de IA de Stanford HAI 2026 ha documentado lo que los investigadores llaman “inteligencia irregular”: modelos avanzados capaces de aprobar exámenes de ciencia de nivel de posgrado que, sin embargo, fallan en tareas que un niño podría manejar, como leer un reloj analógico, teniendo éxito solo alrededor de la mitad de las veces. La inteligencia artificial puede detectar anillos de fraude complejos pero perder patrones de phishing básicos. Ese perfil de capacidad desigual es un argumento a favor de una supervisión humana reflexiva, no para el status quo.

Los límites difíciles que ningún analista puede superar

Reconocer lo que los analistas manuales hacen bien no debe ocultar lo que simplemente no pueden hacer. Los metadatos de los documentos son invisibles para el ojo desnudo pero muy reveladores para las herramientas computacionales: las fechas de creación, el historial de edición, las firmas de software y los datos de GPS incrustados en una imagen escaneada pueden exponer un documento falsificado en segundos. Un revisor humano nunca verá none de estos metadatos.

Los datos de consorcio y de red también yacen fuera del horizonte de observación de un analista. Detectar un solo número de Seguro Social que aparece en múltiples solicitudes de concesionarios en la misma semana es trivial desde el punto de vista computacional e imposible para humanos a gran escala. La detección de microinconsistencias sigue la misma lógica: cambios sutiles de fuente, alteraciones a nivel de píxel y irregularidades de formato en documentos falsificados requieren comparación computacional para surgir de manera confiable. A medida que crecen los volúmenes de préstamos para automóviles, la revisión manual no se escalona. Simplemente se vuelve más costosa.

El problema de mala asignación

El problema no es que los prestamistas utilicen analistas manuales. Es que los utilizan en los documentos y flujos de trabajo equivocados. Cuando las instituciones revisan manualmente hasta la mitad de su volumen de documentos de ingresos, los analistas están pasando la mayor parte de su tiempo en presentaciones que la inteligencia artificial podría aclarar o marcar automáticamente. Los documentos que genuinamente requieren un ojo humano capacitado representan una fracción de ese total.

La consecuencia es predecible. Los analistas se cansan y se vuelven menos agudos precisamente cuando se encuentran con los casos complejos y de alto riesgo que realmente necesitan su experiencia. El fraude más difícil se esconde exactamente en los lugares donde un revisor cansado que trabaja a través de una larga cola está menos equipado para encontrarlo. Un alto costo laboral, un menor rendimiento y ninguna mejora significativa en las tasas de detección de fraude no es un intercambio que valga la pena hacer.

Qué se ve un modelo más inteligente

La solución no es eliminar la revisión manual. Es redeployarla. Las herramientas automatizadas deben manejar el volumen: filtrar los documentos de ingresos para señales de fraude conocidas, anomalías de metadatos y golpes de datos de consorcio. Eso libera a los analistas para centrarse en casos de borde, apelaciones, escalaciones y patrones de fraude novedosos que las herramientas de inteligencia artificial no están equipadas para resolver.

Las instituciones a menudo pasan por alto otra capa: la inteligencia artificial que monitorea la inteligencia artificial. Los sistemas automatizados deben rastrear cómo se están utilizando las herramientas de toma de decisiones y si los resultados están desviándose de maneras que señalen la degradación del modelo o nuevos vectores de fraude. La supervisión humana es más valiosa cuando se posiciona en puntos de palanca, no distribuida uniformemente en cada documento de la cola. Los protocolos de escalación claros, con umbrales definidos que se auditan regularmente, son lo que mantiene a este modelo alejado de la costumbre.

La dimensión de cumplimiento que los prestamistas no pueden ignorar

Los reguladores están prestando más atención a cómo se toman las decisiones de detección de fraude asistidas por inteligencia artificial y quién es responsable de ellas. Las instituciones que pueden documentar un proceso de revisión por niveles, con una revisión humana dirigida en criterios definidos después de una selección inicial de inteligencia artificial, estarán mejor posicionadas que aquellas que confían en una automatización opaca o una revisión manual no diferenciada. Un sistema de caja negra que nadie en la institución puede explicar es una responsabilidad, no una solución.

Los oficiales de cumplimiento necesitan estar lo suficientemente cerca de la tecnología como para entender qué es lo que la inteligencia artificial está haciendo realmente, no solo firmando un sistema que nunca han evaluado. Eso requiere inversión en capacitación, transparencia del proveedor y una función de auditoría continua que mantiene el juicio humano conectado de manera significativa a los resultados automatizados.

La pregunta correcta que se debe hacer

La observación de que tres cuartas partes de los prestamistas siguen confiando mucho en la revisión de fraude manual no es un escándalo. Puede reflejar un instinto sólido para mantener a los humanos responsables en un proceso de alto riesgo. Pero el instinto no es estrategia. El volumen de revisión manual que ocurre en toda la industria no refleja una decisión deliberada sobre dónde el juicio humano agrega el mayor valor. Refleja hábito.

Cada institución en este espacio debería estar preguntando no si deben usar revisión manual, sino dónde usarla, cuánta y en qué. Los prestamistas que responden claramente a esa pregunta y construyen flujos de trabajo para coincidir, atraparán más fraude, gastarán menos haciéndolo y estarán mucho mejor posicionados cuando los reguladores vengan a preguntar cómo se tomaron las decisiones. Los analistas que han estado revisando documentos rutinarios merecen estar trabajando en los casos que realmente los necesitan.

Tom Oscherwitz es el consejero general de Informed. Tiene más de 25 años de experiencia como regulador gubernamental senior (CFPB, Senado de EE. UU.) y como ejecutivo legal de fintech que trabaja en la intersección de datos de consumidores, análisis y política regulatoria. Para más información, visite www.informediq.com.