Connect with us

AI og forebygging av finansiell kriminalitet: Hvorfor banker trenger en balansert tilnærming

Tankeledere

AI og forebygging av finansiell kriminalitet: Hvorfor banker trenger en balansert tilnærming

mm

AI er en tosidet mynt for banker: mens det åpner opp for mange muligheter for mer effektive operasjoner, kan det også utgjøre eksterne og interne risikoer.

Finansielle kriminelle utnytter teknologien til å produsere deepfake videoer, stemmer og falske dokumenter som kan gå forbi datamaskin- og menneskekontroll, eller til å overdrive e-postsvindelaktiviteter. I USA alene forventes generativ AI å akselerere svindeltap til en årlig vekstrate på 32%, og nå 40 milliarder dollar i 2027, ifølge en nylig rapport fra Deloitte.

Kanskje, derfor, bør bankenes respons være å utruste seg med enda bedre verktøy, ved å utnytte AI på tvers av finansiell kriminalitetsforebygging. Finansielle institusjoner begynner faktisk å deployere AI i anti-finansiell kriminalitet (AFC)-innsats – for å overvåke transaksjoner, generere mistenkte aktivitetsrapporter, automatisere svindeldeteksjon og mer. Disse har potensialet til å akselerere prosesser samtidig som nøyaktigheten økes.

Problemet er når banker ikke balanserer implementeringen av AI med menneskelig dømmekraft. Uten en menneskelig faktor, kan AI-tilpasning påvirke overholdelse, bias og tilpasning til nye trusler.

Vi tror på en forsiktig, hybrid tilnærming til AI-tilpasning i den finansielle sektoren, en som vil fortsette å kreve menneskelig innsats.

Forskjellen mellom regelbaserte og AI-drevne AFC-systemer

Tradisjonelt har AFC – og særlig anti-pengevask (AML)-systemer – operert med faste regler satt av overholdelsesteam i respons til reguleringer. I tilfelle transaksjonsovervåking, for eksempel, er disse reglene implementert for å flagge transaksjoner basert på bestemte forhåndsdefinerte kriterier, som transaksjonsbeløpstrøskler eller geografiske risikofaktorer.

AI presenterer en ny måte å skanne for finansiell kriminalitetsrisiko. Maskinlæringsmodeller kan brukes til å detektere mistenkte mønster basert på en rekke datasett som er i konstant utvikling. Systemet analyserer transaksjoner, historiske data, kundeatferd og kontekstdata for å overvåke for noe mistenkt, samtidig som det lærer over tid, og tilbyr adaptiv og potensielt mer effektiv kriminalitetsovervåking.

Men, mens regelbaserte systemer er forutsigbare og lett gjenkjennelige, introduserer AI-drevne systemer et komplekst “black box”-element på grunn av uklare beslutningsprosesser. Det er vanskeligere å spore en AI-systems begrunnelse for å flagge bestemt atferd som mistenkt, gitt at så mange elementer er involvert. Dette kan føre til at AI når en bestemt konklusjon basert på foreldede kriterier, eller gir faktisk feilaktige innblikk, uten at dette er umiddelbart gjenkjennelig. Det kan også skape problemer for en finansiell institusjons overholdelse av reguleringer.

Mulige regulatoriske utfordringer

Finansielle institusjoner må overholde strenge regulatoriske standarder, som EU-s AMLD og USAs Bank Secrecy Act, som krever klare, sporbare beslutningsprosesser. AI-systemer, særlig dyplæringsmodeller, kan være vanskelige å tolke.

For å sikre ansvar mens AI-tilpasning, trenger banker omhyggelig planlegging, grundig testing, spesialiserte overholdelsesrammer og menneskelig tilsyn. Mennesker kan validere automatiserte beslutninger ved, for eksempel, å tolke begrunnelsen bak en flagget transaksjon, og gjøre det forklarbart og forsvarbart for regulatorer.

Finansielle institusjoner er også under økende press for å bruke Explainable AI (XAI)-verktøy for å gjøre AI-drevne beslutninger forståelige for regulatorer og revisorer. XAI er en prosess som gjør det mulig for mennesker å forstå utgangen av et AI-system og dets underliggende beslutningsprosess.

Menneskelig dømmekraft kreves for helhetsvisning

AI-tilpasning kan ikke føre til selvtilfredshet med automatiserte systemer. Menneskelige analytikere bringer kontekst og dømmekraft som AI mangler, og tillater nuansert beslutningstagning i komplekse eller tvetydige saker, som fortsatt er essensielt i AFC-undersøkelser.

Blant risikoene ved avhengighet av AI er muligheten for feil (f.eks. falske positiver, falske negativer) og bias. AI kan være utsatt for falske positiver hvis modellene ikke er godt justert, eller er trent på biasede data. Mens mennesker også er utsatt for bias, er den tillegge risikoen med AI at det kan være vanskelig å identifisere bias innen systemet.

Fortsatt, kan AI-modeller kjøre på dataene som er født til dem – de kan ikke fange nye eller sjeldne mistenkte mønster utenfor historiske trender, eller basert på virkelige verdensinnsikt. En fullstendig erstattning av regelbaserte systemer med AI kunne etterlate blinde flekker i AFC-overvåking.

I tilfelle bias, tvetydighet eller nyskaping, trenger AFC en diskret øye som AI ikke kan tilby. Samtidig, hvis vi fjerner mennesker fra prosessen, kunne det alvorlig hemme evnen til å forstå mønster i finansiell kriminalitet, å spore mønster, og å identifisere fremvoksende trender. Dette kunne gjøre det vanskeligere å holde automatiserte systemer oppdatert.

En hybrid tilnærming: kombinering av regelbaserte og AI-drevne AFC

Finansielle institusjoner kan kombinere en regelbasert tilnærming med AI-verktøy for å skape et flerskiktet system som utnytter styrkene til begge tilnærmingene. Et hybrid system vil gjøre AI-tilpasning mer nøyaktig på lengre sikt, og mer fleksibelt i å håndtere fremvoksende finansiell kriminalitets-trusler, uten å ofre transparens.

For å gjøre dette, kan institusjoner integrere AI-modeller med pågående menneskelig tilbakemelding. Modellenes adaptive læring ville derfor ikke bare vokse basert på datapunkt, men også på menneskelig innsats som finjusterer og gjenbalanserer det.

Ikke alle AI-systemer er like. AI-modeller bør gjennomgå kontinuerlig testing for å evaluere nøyaktighet, rettferdighet og overholdelse, med regelmessige oppdateringer basert på regulatoriske endringer og nye trusler som identifiseres av AFC-teamene.

Risiko- og overholdelsesekspertene må være trent i AI, eller en AI-ekspert må bli ansatt i teamet, for å sikre at AI-utvikling og -implementering utføres innenfor bestemte rammer. De må også utvikle overholdelsesrammer spesifikt for AI, og etablere en vei til regulatorisk overholdelse i en fremvoksende sektor for overholdelsesekspertene.

Som en del av AI-tilpasning, er det viktig at alle elementer i organisasjonen blir briefet om kapasiteten til de nye AI-modellene de arbeider med, men også deres svakheter (slik som potensiell bias), for å gjøre dem mer perceptive til potensielle feil.

Organisasjonen må også gjøre visse strategiske overveielser for å bevare sikkerhet og datakvalitet. Det er essensielt å investere i høykvalitets, sikker data-infrastruktur og sikre at de er trent på nøyaktige og diverse datasett.

AI er og vil fortsette å være både en trussel og et forsvar for banker. Men de må håndtere denne kraftfulle nye teknologien riktig for å unngå å skape problemer i stedet for å løse dem.

Gabriella Bussien er CEO i tech-first finansiell kriminalitetsforebyggingsorganisasjon Trapets, en nordisk markedsleder siden 2000. Hun har over 20 års erfaring med å skalerer bedrifter og håndtere risiko i organisasjoner som inkluderer Morgan Stanley og Thomson Reuters.