Líderes de opinión
Cómo los bancos deben aprovechar la IA responsable para combatir el crimen financiero

El fraude no es nada nuevo en el sector de servicios financieros, pero recientemente ha habido una aceleración que vale la pena analizar con más detalle. A medida que la tecnología se desarrolla y evoluciona a un ritmo acelerado, los delincuentes han encontrado aún más rutas para romper las barreras de cumplimiento, lo que ha llevado a una carrera armamentística tecnológica entre aquellos que intentan proteger a los consumidores y aquellos que buscan causarles daño. Los estafadores combinan tecnologías emergentes con manipulación emocional para estafar a las personas de miles de dólares, dejando la responsabilidad firme en los bancos para mejorar sus defensas y combatir eficazmente la amenaza en evolución.
Para combatir la creciente epidemia de fraude, los propios bancos están comenzando a aprovechar la nueva tecnología. Con los bancos sentados sobre una riqueza de datos que no se ha utilizado previamente al máximo, la tecnología de IA tiene la capacidad de empoderar a los bancos para detectar el comportamiento criminal antes de que suceda al analizar vastos conjuntos de datos.
Aumento de los riesgos de fraude
Es positivo ver a los gobiernos de todo el mundo adoptar un enfoque proactivo cuando se trata de IA, particularmente en EE. UU. y en Europa. En abril, la administración Biden anunció una inversión de $140 millones en investigación y desarrollo de inteligencia artificial, un paso firme hacia adelante sin duda. Sin embargo, la epidemia de fraude y el papel de esta nueva tecnología en la facilitación del comportamiento criminal no pueden ser exagerados, algo que creo que el gobierno necesita tener firmemente en su radar.
El fraude costó a los consumidores $8.8 mil millones en 2022, un aumento del 44% con respecto a 2021. Este aumento drástico se puede atribuir en gran medida a la tecnología cada vez más disponible, incluida la IA, que los estafadores están comenzando a manipular.
La Comisión Federal de Comercio (FTC) señaló que la forma más prevalente de fraude informado es el fraude de impostores, con pérdidas de $2.6 mil millones informadas el año pasado. Hay múltiples tipos de fraude de impostores, que van desde delincuentes que se hacen pasar por cuerpos gubernamentales como el IRS o parientes que se hacen pasar por estar en problemas; ambas tácticas se utilizan para engañar a consumidores vulnerables para que transfieran dinero o activos voluntariamente.
En marzo de este año, la FTC emitió una advertencia adicional sobre delincuentes que utilizan clips de audio existentes para clonar las voces de parientes a través de la IA. En la advertencia, se establece “No confíes en la voz”, un recordatorio sombrío para ayudar a guiar a los consumidores lejos de enviar dinero involuntariamente a estafadores.
Los tipos de fraude empleados por los delincuentes se están volviendo cada vez más variados y avanzados, y las estafas de romance siguen siendo un problema clave. El informe reciente de Feedzai, El impacto humano del fraude y el crimen financiero en la confianza del cliente en los bancos, encontró que el 42% de las personas en EE. UU. han sido víctimas de una estafa de romance.
La IA generativa, capaz de generar texto, imágenes y otros medios en respuesta a solicitudes, ha empoderado a los delincuentes para trabajar en masa, encontrando nuevas formas de engañar a los consumidores para que les entreguen su dinero. ChatGPT ya ha sido explotado por estafadores, lo que les permite crear mensajes muy realistas para engañar a las víctimas y hacerles creer que son alguien más, y eso es solo la punta del iceberg.
A medida que la IA generativa se vuelve más sofisticada, será aún más difícil para las personas distinguir entre lo que es real y lo que no. En consecuencia, es vital que los bancos actúen rápidamente para fortalecer sus defensas y proteger a sus bases de clientes.
IA como herramienta defensiva
Sin embargo, al igual que la IA se puede utilizar como una herramienta criminal, también puede ayudar a proteger eficazmente a los consumidores. Puede trabajar a velocidad analizando vastas cantidades de datos para tomar decisiones inteligentes en un abrir y cerrar de ojos. En un momento en que los equipos de cumplimiento están enormemente sobrecargados, la IA está ayudando a decidir qué es una transacción fraudulenta y qué no.
Al adoptar la IA, algunos bancos están construyendo imágenes completas de los clientes, lo que les permite identificar cualquier comportamiento inusual rápidamente. Los conjuntos de datos de comportamiento, como las tendencias de transacciones o a qué hora las personas suelen acceder a su banca en línea, pueden ayudar a construir una imagen del comportamiento “bueno” habitual de una persona.
Esto es particularmente útil al detectar el fraude de takeover de cuenta, una técnica utilizada por los delincuentes para hacerse pasar por clientes genuinos y obtener el control de una cuenta para realizar pagos no autorizados. Si el delincuente está en una zona horaria diferente o comienza a intentar acceder a la cuenta de manera errática, se marcará como comportamiento sospechoso y se generará un informe de actividad sospechosa (SAR). La IA puede acelerar este proceso generando automáticamente los informes, así como llenándolos, lo que ahorra costos y tiempo para los equipos de cumplimiento.
La IA bien entrenada también puede ayudar a reducir los falsos positivos, una carga enorme para las instituciones financieras. Los falsos positivos son cuando se marcan transacciones legítimas como sospechosas y podrían llevar a que se bloquee la transacción de un cliente, o peor aún, su cuenta.
Identificar erróneamente a un cliente como un estafador es uno de los principales problemas que enfrentan los bancos. La investigación de Feedzai encontró que la mitad de los consumidores abandonarían su banco si se detuviera una transacción legítima, incluso si se resolviera rápidamente. La IA puede ayudar a reducir esta carga construyendo una mejor visión única del cliente que puede trabajar a velocidad para descifrar si una transacción es legítima.
Sin embargo, es fundamental que las instituciones financieras adopten una IA responsable y sin sesgo. Aún una tecnología relativamente nueva, que depende de aprender habilidades de comportamientos existentes, puede recoger comportamientos sesgados y tomar decisiones incorrectas que también podrían afectar negativamente a los bancos y las instituciones financieras si no se implementan adecuadamente.
Las instituciones financieras tienen la responsabilidad de aprender más sobre la IA ética y responsable, y alinearse con socios tecnológicos para monitorear y mitigar el sesgo de la IA, al mismo tiempo que protegen a los consumidores del fraude.
La confianza es la moneda más importante que tiene un banco, y los clientes quieren sentirse seguros sabiendo que su banco está haciendo todo lo posible para protegerlos. Al actuar rápidamente y de manera responsable, las instituciones financieras pueden aprovechar la IA para construir barreras contra los estafadores y estar en la mejor posición para proteger a sus clientes de las amenazas criminales en constante evolución.










