Leader di pensiero
Intelligenza Artificiale e Prevenzione dei Reati Finanziari: Perché le Banche Hanno Bisogno di un Approccio Equilibrato
L’Intelligenza Artificiale (AI) è una moneta a due facce per le banche: mentre sblocca molte possibilità per operazioni più efficienti, può anche porre rischi esterni e interni.
I criminali finanziari stanno sfruttando la tecnologia per produrre video deepfake, voci e documenti falsi che possono superare la rilevazione computerizzata e umana, o per aumentare le attività di frode via email. Negli Stati Uniti da soli, l’AI generativa è prevista accelerare le perdite di frode a un tasso di crescita annuale del 32%, raggiungendo i 40 miliardi di dollari entro il 2027, secondo un recente rapporto di Deloitte.
Forse, quindi, la risposta delle banche dovrebbe essere quella di armarsi con strumenti ancora migliori, sfruttando l’AI in tutta la prevenzione dei reati finanziari. Le istituzioni finanziarie stanno iniziando a utilizzare l’AI negli sforzi di lotta contro i reati finanziari (AFC) – per monitorare le transazioni, generare rapporti di attività sospette, automatizzare la rilevazione delle frodi e altro. Questi hanno il potenziale di accelerare i processi mentre aumentano l’accuratezza.
Il problema si verifica quando le banche non bilanciano l’implementazione dell’AI con il giudizio umano. Senza un essere umano nel ciclo, l’adozione dell’AI può influire sulla conformità, sulla parzialità e sull’adattabilità a nuove minacce.
Noi crediamo in un approccio cauto e ibrido all’adozione dell’AI nel settore finanziario, che continuerà a richiedere l’input umano.
La differenza tra sistemi AFC basati su regole e sistemi guidati dall’AI
Tradizionalmente, l’AFC – e in particolare i sistemi anti-riciclaggio di denaro (AML) – hanno operato con regole fisse definite dai team di conformità in risposta alle normative. Nel caso del monitoraggio delle transazioni, ad esempio, queste regole sono state implementate per segnalare le transazioni in base a criteri predefiniti specifici, come soglie di importo di transazione o fattori di rischio geografico.
L’AI presenta un nuovo modo di screening per il rischio di reati finanziari. I modelli di apprendimento automatico possono essere utilizzati per rilevare modelli sospetti in base a una serie di set di dati in costante evoluzione. Il sistema analizza le transazioni, i dati storici, il comportamento dei clienti e i dati di contesto per monitorare eventuali attività sospette, imparando nel tempo e offrendo un monitoraggio del crimine più adattivo e potenzialmente più efficace.
Tuttavia, mentre i sistemi basati su regole sono prevedibili e facilmente verificabili, i sistemi guidati dall’AI introducono un elemento complesso di “scatola nera” a causa dei processi decisionali opachi. È più difficile rintracciare il ragionamento di un sistema AI per segnalare determinati comportamenti come sospetti, dato che sono coinvolti molti elementi. Ciò può far sì che l’AI raggiunga una certa conclusione in base a criteri superati o fornisca informazioni fattualmente errate, senza che ciò sia immediatamente rilevabile. Ciò può anche causare problemi per la conformità normativa di un’istituzione finanziaria.
Possibili sfide normative
Le istituzioni finanziarie devono aderire a norme normative stringenti, come la direttiva anti-riciclaggio di denaro dell’UE (AMLD) e il Bank Secrecy Act degli Stati Uniti, che richiedono processi decisionali chiari e tracciabili. I sistemi AI, in particolare i modelli di apprendimento profondo, possono essere difficili da interpretare.
Per garantire la responsabilità durante l’adozione dell’AI, le banche hanno bisogno di una pianificazione accurata, di test approfonditi, di quadri di conformità specializzati e di una supervisione umana. Gli esseri umani possono convalidare le decisioni automatizzate, ad esempio, interpretando il ragionamento alla base di una transazione segnalata, rendendola spiegabile e difendibile per i regolatori.
Le istituzioni finanziarie sono anche sotto pressione crescente per utilizzare strumenti di Intelligenza Artificiale Spiegabile (XAI) per rendere le decisioni guidate dall’AI comprensibili per i regolatori e i revisori. L’XAI è un processo che consente agli esseri umani di comprendere l’output di un sistema AI e la sua logica decisionale sottostante.
Giudizio umano richiesto per una visione olistica
L’adozione dell’AI non può dare luogo a una compiacenza con i sistemi automatizzati. Gli analisti umani portano contesto e giudizio che l’AI manca, consentendo una presa di decisioni sfumata in casi complessi o ambigui, che rimane essenziale nelle indagini AFC.
Tra i rischi della dipendenza dall’AI ci sono la possibilità di errori (ad esempio falsi positivi, falsi negativi) e la parzialità. L’AI può essere propensa a falsi positivi se i modelli non sono ben tarati o sono stati addestrati su dati distorti. Mentre gli esseri umani sono anche suscettibili alla parzialità, il rischio aggiuntivo dell’AI è che può essere difficile identificare la parzialità all’interno del sistema.
Inoltre, i modelli AI funzionano con i dati che vengono loro forniti – potrebbero non rilevare modelli sospetti nuovi o rari al di fuori delle tendenze storiche, o in base a informazioni del mondo reale. Un sostituzione completa dei sistemi basati su regole con l’AI potrebbe lasciare punti ciechi nel monitoraggio AFC.
In casi di parzialità, ambiguità o novità, l’AFC necessita di un occhio discernente che l’AI non può fornire. Allo stesso tempo, se rimuovessimo gli esseri umani dal processo, potrebbe gravemente limitare la capacità dei vostri team di comprendere i modelli di reati finanziari, rilevare modelli e identificare tendenze emergenti. Ciò potrebbe rendere più difficile tenere aggiornati i sistemi automatizzati.
Un approccio ibrido: combinazione di sistemi AFC basati su regole e sistemi guidati dall’AI
Le istituzioni finanziarie possono combinare un approccio basato su regole con strumenti AI per creare un sistema a più strati che sfrutta i punti di forza di entrambi gli approcci. Un sistema ibrido renderà l’implementazione dell’AI più precisa nel lungo termine e più flessibile nell’affrontare le minacce di reati finanziari emergenti, senza sacrificare la trasparenza.
Per farlo, le istituzioni possono integrare i modelli AI con un feedback umano continuo. L’apprendimento adattivo dei modelli sarebbe quindi basato non solo sui modelli di dati, ma anche sul feedback umano che li raffina e ri-bilancia.
Non tutti i sistemi AI sono uguali. I modelli AI dovrebbero essere sottoposti a test continui per valutare l’accuratezza, l’equità e la conformità, con aggiornamenti regolari in base ai cambiamenti normativi e alle nuove informazioni sulle minacce identificate dai team AFC.
Gli esperti di rischio e conformità devono essere formati sull’AI, o un esperto di AI deve essere assunto nel team, per garantire che lo sviluppo e la distribuzione dell’AI siano eseguiti all’interno di determinate linee guida. Devono anche sviluppare quadri di conformità specifici per l’AI, stabilendo un percorso per l’aderenza normativa in un settore emergente per gli esperti di conformità.
Come parte dell’adozione dell’AI, è importante che tutti gli elementi dell’organizzazione siano informati sulle capacità dei nuovi modelli AI con cui stanno lavorando, ma anche sui loro limiti (come la possibile parzialità), in modo da renderli più consapevoli di possibili errori.
La vostra organizzazione deve anche prendere in considerazione altre considerazioni strategiche per preservare la sicurezza e la qualità dei dati. È essenziale investire in un’infrastruttura di dati di alta qualità e sicura e assicurarsi che siano addestrati su set di dati accurati e diversificati.
L’AI è e continuerà a essere sia una minaccia che uno strumento di difesa per le banche. Ma hanno bisogno di gestire questa nuova tecnologia potente correttamente per evitare di creare problemi invece di risolverli.












