Líderes de pensamento
Inteligência Artificial e Prevenção de Crimes Financeiros: Por Que os Bancos Precisam de uma Abordagem Equilibrada
A Inteligência Artificial é uma moeda de duas faces para os bancos: enquanto desbloqueia muitas possibilidades para operações mais eficientes, também pode representar riscos externos e internos.
Os criminosos financeiros estão utilizando a tecnologia para produzir vídeos deepfake, vozes e documentos falsos que podem passar por detecção computacional e humana, ou para aumentar as atividades de fraude por e-mail. Nos EUA, a Inteligência Artificial gerativa é esperada para acelerar as perdas por fraude a uma taxa de crescimento anual de 32%, alcançando US$ 40 bilhões até 2027, de acordo com um relatório recente da Deloitte.
Talvez, então, a resposta dos bancos deva ser armarem-se com ferramentas ainda melhores, utilizando a Inteligência Artificial em toda a prevenção de crimes financeiros. As instituições financeiras estão começando a implantar a Inteligência Artificial em esforços de combate ao crime financeiro (AFC) – para monitorar transações, gerar relatórios de atividade suspeita, automatizar a detecção de fraude e mais. Esses esforços têm o potencial de acelerar processos enquanto aumentam a precisão.
O problema é quando os bancos não equilibram a implementação da Inteligência Artificial com julgamento humano. Sem um humano no loop, a adoção da Inteligência Artificial pode afetar a conformidade, o viés e a adaptabilidade a novas ameaças.
Acreditamos em uma abordagem cautelosa e híbrida para a adoção da Inteligência Artificial no setor financeiro, que continuará a exigir entrada humana.
A diferença entre sistemas de AFC baseados em regras e sistemas de AFC impulsionados por Inteligência Artificial
Tradicionalmente, o AFC – e, em particular, os sistemas de combate à lavagem de dinheiro (AML) – operam com regras fixas definidas pelas equipes de conformidade em resposta a regulamentações. No caso do monitoramento de transações, por exemplo, essas regras são implementadas para sinalizar transações com base em critérios pré-definidos específicos, como limites de valor de transação ou fatores de risco geográfico.
A Inteligência Artificial apresenta uma nova forma de triagem para risco de crime financeiro. Modelos de aprendizado de máquina podem ser usados para detectar padrões suspeitos com base em uma série de conjuntos de dados em constante evolução. O sistema analisa transações, dados históricos, comportamento do cliente e dados contextuais para monitorar qualquer coisa suspeita, aprendendo com o tempo, oferecendo monitoramento de crime adaptativo e potencialmente mais eficaz.
No entanto, enquanto os sistemas baseados em regras são previsíveis e facilmente auditáveis, os sistemas impulsionados por Inteligência Artificial introduzem um complexo elemento de “caixa preta” devido a processos de tomada de decisão opacos. É mais difícil rastrear o raciocínio de um sistema de Inteligência Artificial para sinalizar determinado comportamento como suspeito, dado que muitos elementos estão envolvidos. Isso pode fazer com que a Inteligência Artificial chegue a uma conclusão certa com base em critérios desatualizados, ou forneça insights factualmente incorretos, sem que isso seja imediatamente detectável. Também pode causar problemas para a conformidade regulatória de uma instituição financeira.
Desafios regulatórios possíveis
As instituições financeiras devem aderir a padrões regulatórios rigorosos, como a Diretiva Anti-Lavagem de Dinheiro da UE (AMLD) e a Lei de Sigilo Bancário dos EUA, que exigem tomada de decisão clara e rastreável. Os sistemas de Inteligência Artificial, especialmente os modelos de aprendizado profundo, podem ser difíceis de interpretar.
Para garantir a responsabilidade ao adotar a Inteligência Artificial, os bancos precisam de planejamento cuidadoso, testes rigorosos, estruturas de conformidade especializadas e supervisão humana. Os humanos podem validar decisões automatizadas, por exemplo, interpretando o raciocínio por trás de uma transação sinalizada, tornando-a explicável e defensável para os reguladores.
As instituições financeiras também estão sob pressão crescente para usar ferramentas de Inteligência Artificial Explicável (XAI) para tornar as decisões impulsionadas por Inteligência Artificial compreensíveis para reguladores e auditores. A XAI é um processo que permite que os humanos compreendam a saída de um sistema de Inteligência Artificial e sua tomada de decisão subjacente.
Julgamento humano necessário para uma visão holística
A adoção da Inteligência Artificial não pode dar lugar à complacência com sistemas automatizados. Os analistas humanos trazem contexto e julgamento que a Inteligência Artificial falta, permitindo tomadas de decisão nuances em casos complexos ou ambíguos, o que permanece essencial nas investigações de AFC.
Entre os riscos da dependência da Inteligência Artificial estão a possibilidade de erros (por exemplo, falsos positivos, falsos negativos) e viés. A Inteligência Artificial pode ser propensa a falsos positivos se os modelos não forem bem ajustados ou forem treinados com dados tendenciosos. Embora os humanos também sejam suscetíveis a viés, o risco adicional da Inteligência Artificial é que pode ser difícil identificar o viés dentro do sistema.
Além disso, os modelos de Inteligência Artificial são executados com base nos dados que lhes são fornecidos – eles podem não capturar padrões suspeitos novos ou raros fora das tendências históricas, ou com base em insights do mundo real. A substituição completa dos sistemas baseados em regras pela Inteligência Artificial pode deixar pontos cegos no monitoramento de AFC.
Em casos de viés, ambiguidade ou novidade, o AFC precisa de um olhar discernidor que a Inteligência Artificial não pode fornecer. Ao mesmo tempo, se removêssemos os humanos do processo, isso poderia prejudicar severamente a capacidade das equipes de entender padrões de crime financeiro, identificar padrões e detectar tendências emergentes. Isso, por sua vez, poderia tornar mais difícil manter os sistemas automatizados atualizados.
Uma abordagem híbrida: combinando sistemas de AFC baseados em regras e sistemas de AFC impulsionados por Inteligência Artificial
As instituições financeiras podem combinar uma abordagem baseada em regras com ferramentas de Inteligência Artificial para criar um sistema em camadas que aproveite as forças de ambas as abordagens. Um sistema híbrido tornará a implementação da Inteligência Artificial mais precisa a longo prazo e mais flexível para lidar com ameaças emergentes de crime financeiro, sem sacrificar a transparência.
Para fazer isso, as instituições podem integrar modelos de Inteligência Artificial com feedback humano contínuo. O aprendizado adaptativo dos modelos seria, portanto, baseado não apenas em padrões de dados, mas também em entrada humana que refina e reequilibra o sistema.
Não todos os sistemas de Inteligência Artificial são iguais. Os modelos de Inteligência Artificial devem passar por testes contínuos para avaliar a precisão, a justiça e a conformidade, com atualizações regulares com base em mudanças regulatórias e novas inteligências de ameaças identificadas pelas equipes de AFC.
Especialistas em risco e conformidade devem ser treinados em Inteligência Artificial, ou um especialista em Inteligência Artificial deve ser contratado para a equipe, para garantir que o desenvolvimento e a implantação da Inteligência Artificial sejam executados dentro de certos limites. Eles também devem desenvolver estruturas de conformidade específicas para a Inteligência Artificial, estabelecendo um caminho para a adesão regulatória em um setor emergente para especialistas em conformidade.
Como parte da adoção da Inteligência Artificial, é importante que todos os elementos da organização sejam informados sobre as capacidades dos novos modelos de Inteligência Artificial com os quais estão trabalhando, mas também sobre suas limitações (como o potencial de viés), para torná-los mais perceptivos a possíveis erros.
A organização também deve considerar outras estratégias para preservar a segurança e a qualidade dos dados. É essencial investir em infraestrutura de dados de alta qualidade e segura e garantir que sejam treinados com conjuntos de dados precisos e diversificados.
A Inteligência Artificial é e continuará a ser tanto uma ameaça quanto uma ferramenta defensiva para os bancos. Mas eles precisam lidar com essa nova tecnologia poderosa corretamente para evitar criar problemas em vez de resolvê-los.












