Líderes del pensamiento
Inteligencia artificial y prevención de delitos financieros: por qué los bancos necesitan un enfoque equilibrado

La IA es una moneda de dos caras para los bancos: si bien abre muchas posibilidades para operaciones más eficientes, también puede plantear riesgos externos e internos.
Los delincuentes financieros están aprovechando la tecnología para producir videos profundos, voces y documentos falsos que pueden eludir la detección humana y por ordenador, o potenciar las actividades de fraude por correo electrónico. Solo en Estados Unidos, se espera que la IA generativa acelere las pérdidas por fraude a una tasa de crecimiento anual del 32%, alcanzando los 40 millones de dólares en 2027, según un estudio reciente. informe de Deloitte.
Tal vez, entonces, la respuesta de los bancos debería ser la de dotarse de herramientas aún mejores, aprovechando la IA para la prevención de delitos financieros. De hecho, las instituciones financieras están empezando a utilizar la IA en sus iniciativas de lucha contra los delitos financieros, para supervisar transacciones, generar informes de actividades sospechosas, automatizar la detección de fraudes y más. Estas herramientas tienen el potencial de acelerar los procesos y, al mismo tiempo, aumentar la precisión.
El problema es que los bancos no logran un equilibrio entre la implementación de la IA y el criterio humano. Sin un humano en el proceso, la adopción de la IA puede afectar el cumplimiento normativo, los sesgos y la adaptabilidad a las nuevas amenazas.
Creemos en un enfoque cauteloso e híbrido para la adopción de IA en el sector financiero, que seguirá requiriendo participación humana.
La diferencia entre los sistemas AFC basados en reglas y los impulsados por IA
Tradicionalmente, los sistemas de prevención de blanqueo de dinero (AML) y, en particular, los sistemas de lucha contra el blanqueo de dinero han funcionado con reglas fijas establecidas por los equipos de cumplimiento normativo en respuesta a las regulaciones. En el caso del monitoreo de transacciones, por ejemplo, estas reglas se implementan para marcar transacciones en función de criterios predefinidos específicos, como umbrales de monto de transacción o factores de riesgo geográfico.
La inteligencia artificial presenta una nueva forma de detectar el riesgo de delitos financieros. Los modelos de aprendizaje automático se pueden utilizar para detectar patrones sospechosos basándose en una serie de conjuntos de datos que están en constante evolución. El sistema analiza transacciones, datos históricos, comportamiento de los clientes y datos contextuales para detectar cualquier elemento sospechoso, a la vez que aprende con el tiempo, lo que ofrece un seguimiento adaptativo y potencialmente más eficaz de los delitos.
Sin embargo, mientras que los sistemas basados en reglas son predecibles y fácilmente auditables, los sistemas impulsados por IA introducen un elemento complejo de “caja negra” debido a la opacidad de los procesos de toma de decisiones. Es más difícil rastrear el razonamiento de un sistema de IA para marcar cierta conducta como sospechosa, dado que intervienen tantos elementos. Esto puede hacer que la IA llegue a una determinada conclusión basándose en criterios obsoletos o proporcione información objetivamente incorrecta, sin que esto sea detectable de inmediato. También puede causar problemas para el cumplimiento normativo de una institución financiera.
Posibles desafíos regulatorios
Las instituciones financieras tienen que cumplir con estándares regulatorios estrictos, como los de la UE. AMLD y los EE.UU. Ley de secreto bancario, que exigen una toma de decisiones clara y rastreable. Los sistemas de IA, especialmente los modelos de aprendizaje profundo, pueden ser difíciles de interpretar.
Para garantizar la rendición de cuentas al adoptar la IA, los bancos necesitan una planificación cuidadosa, pruebas exhaustivas, marcos de cumplimiento especializados y supervisión humana. Los humanos pueden validar las decisiones automatizadas, por ejemplo, interpretando el razonamiento detrás de una transacción marcada, haciéndola explicable y defendible ante los reguladores.
Las instituciones financieras también están bajo una presión cada vez mayor para utilizar IA explicable (XAI) herramientas para que las decisiones impulsadas por IA sean comprensibles para los reguladores y auditores. XAI es un proceso que permite a los humanos comprender el resultado de un sistema de IA y la toma de decisiones subyacente.
Se requiere el juicio humano para una visión holística
La adopción de la IA no puede dar paso a la complacencia con los sistemas automatizados. Los analistas humanos aportan contexto y criterio de los que carece la IA, lo que permite tomar decisiones matizadas en casos complejos o ambiguos, algo que sigue siendo esencial en las investigaciones de la AFC.
Entre los riesgos de la dependencia de la IA se encuentran la posibilidad de errores (por ejemplo, falsos positivos y falsos negativos) y sesgos. La IA puede ser propensa a los falsos positivos si los modelos no están bien ajustados o se entrenan con datos sesgados. Si bien los humanos también son susceptibles a los sesgos, el riesgo adicional de la IA es que puede resultar difícil identificarlos dentro del sistema.
Además, los modelos de IA funcionan con los datos que se les suministran, por lo que es posible que no detecten patrones sospechosos nuevos o raros fuera de las tendencias históricas o basados en información del mundo real. Un reemplazo total de los sistemas basados en reglas por IA podría dejar puntos ciegos en el monitoreo de AFC.
En casos de sesgo, ambigüedad o novedad, la AFC necesita una mirada perspicaz que la IA no puede proporcionar. Al mismo tiempo, si elimináramos a los humanos del proceso, se podría reducir gravemente la capacidad de sus equipos para comprender los patrones de los delitos financieros, detectar patrones e identificar tendencias emergentes. A su vez, eso podría dificultar la actualización de los sistemas automatizados.
Un enfoque híbrido: combinación de AFC basado en reglas e impulsado por IA
Las instituciones financieras pueden combinar un enfoque basado en reglas con herramientas de IA para crear un sistema de múltiples capas que aproveche las ventajas de ambos enfoques. Un sistema híbrido permitirá que la implementación de la IA sea más precisa a largo plazo y más flexible para abordar las amenazas emergentes de delitos financieros, sin sacrificar la transparencia.
Para ello, las instituciones pueden integrar modelos de IA con retroalimentación humana constante. De este modo, el aprendizaje adaptativo de los modelos no solo crecería en función de los patrones de datos, sino también de la contribución humana que lo refina y lo reequilibra.
No todos los sistemas de IA son iguales. Los modelos de IA deben someterse a pruebas continuas para evaluar su precisión, imparcialidad y cumplimiento, y deben actualizarse periódicamente en función de los cambios normativos y la nueva información sobre amenazas que identifiquen los equipos de AFC.
Los expertos en riesgos y cumplimiento normativo deben recibir formación en IA, o se debe contratar a un experto en IA para que se incorpore al equipo, a fin de garantizar que el desarrollo y la implementación de la IA se lleven a cabo dentro de ciertos límites. También deben desarrollar marcos de cumplimiento normativo específicos para la IA, estableciendo un camino hacia el cumplimiento normativo en un sector emergente para los expertos en cumplimiento normativo.
Como parte de la adopción de IA, es importante que todos los elementos de la organización estén informados sobre las capacidades de los nuevos modelos de IA con los que están trabajando, pero también sobre sus deficiencias (como posibles sesgos), para que sean más perceptivos a posibles errores.
Su organización también debe tener en cuenta otras consideraciones estratégicas para preservar la seguridad y la calidad de los datos. Es fundamental invertir en una infraestructura de datos segura y de alta calidad y asegurarse de que estén capacitados para trabajar con conjuntos de datos precisos y diversos.
La IA es y seguirá siendo una amenaza y una herramienta defensiva para los bancos, pero estos deben manejar esta nueva y poderosa tecnología de manera correcta para evitar crear problemas en lugar de resolverlos.