Connect with us

AI og forebyggelse af finansielle forbrydelser: Hvorfor banker har brug for en balanceret tilgang

Tankeledere

AI og forebyggelse af finansielle forbrydelser: Hvorfor banker har brug for en balanceret tilgang

mm

AI er en tosidet mønt for banker: selvom det åbner mange muligheder for mere effektive operationer, kan det også udgøre eksterne og interne risici.

Finansielle kriminelle udnytter teknologien til at producere deepfake-videor, stemmer og falske dokumenter, der kan slippe igennem computer- og menneskekontrol, eller til at accelerere e-mail-svindelaktiviteter. I USA alene forventes generativ AI at accelerere svindeltab til en årlig vækstrate på 32%, og nå 40 milliarder USD i 2027, ifølge en ny rapport fra Deloitte.

Måske skal bankernes svar være at udstyre sig selv med endnu bedre værktøjer, der udnytter AI på tværs af finansielle forbrydelsesforebyggelse. Finansielle institutioner er faktisk begyndt at implementere AI i anti-finansielle forbrydelsesindsats (AFC) – for at overvåge transaktioner, generere mistænkelige aktivitetsrapporter, automatisere svindeldetektering og mere. Disse har potentialet til at accelerere processer samtidig med at øge nøjagtigheden.

Problemet er, når banker ikke balancerer implementeringen af AI med menneskelig dømmekraft. Uden en menneskelig faktor kan AI-adopteringsprocessen påvirke overholdelse, bias og tilpasning til nye trusler.

Vi tror på en forsigtig, hybrid tilgang til AI-adopteringsprocessen i den finansielle sektor, som vil fortsat kræve menneskelig input.

Forskellen mellem regelbaserede og AI-drevne AFC-systemer

Traditionelt har AFC – og særligt anti-pengevask (AML)-systemer – opereret med faste regler fastsat af overholdelseshold i respons til reguleringer. I tilfælde af transaktionsovervågning, for eksempel, er disse regler implementeret for at flagge transaktioner baseret på bestemte foruddefinerede kriterier, såsom transaktionsbeløbsgrænser eller geografiske risikofaktorer.

AI præsenterer en ny måde at screene for finansielle forbrydelsesrisici. Maskinelæringsmodeller kan bruges til at detektere mistænkelige mønstre baseret på en række datasæt, der konstant udvikles. Systemet analyserer transaktioner, historisk data, kundeopførsel og kontekstdata for at overvåge for noget mistænkeligt, samtidig med at det lærer over tid, og tilbyder adaptiv og potentielt mere effektivt kriminalitetsovervågning.

Men, mens regelbaserede systemer er forudsigelige og lette at auditere, introducerer AI-drevne systemer et komplekst “sort boks”-element på grund af uigennemsigtige beslutningsprocesser. Det er sværere at spore en AI-systems begrundelse for at flagge bestemt adfærd som mistænkelig, da så mange elementer er involveret. Dette kan føre til, at AI-systemet når en vis konklusion baseret på forældede kriterier eller giver faktisk forkerte indsigt, uden at dette er umiddelbart opdageligt. Det kan også skabe problemer for en finansielle institutions overholdelse af reguleringer.

Mulige regulatoriske udfordringer

Finansielle institutioner skal overholde strenge regulatoriske standarder, såsom EU’s AMLD og USA’s Bank Secrecy Act, som kræver klare, sporbare beslutningsprocesser. AI-systemer, især dybe læringsmodeller, kan være svære at fortolke.

For at sikre ansvarlighed, mens AI adopteres, har banker brug for omhyggelig planlægning, grundig testning, specialiserede overholdelsesrammer og menneskelig oversigt. Mennesker kan validere automatiserede beslutninger ved, for eksempel, at fortolke begrundelsen bag en flaget transaktion, og gøre den forklarlig og forsvarlig for regulatørerne.

Finansielle institutioner er også under øget pres for at bruge Explainable AI (XAI)-værktøjer til at gøre AI-drevne beslutninger forståelige for regulatører og revisorer. XAI er en proces, der giver mennesker mulighed for at forstå outputtet af et AI-system og dets underliggende beslutningsprocesser.

Menneskelig dømmekraft kræves for en holistisk synsvinkel

Adoptering af AI kan ikke føre til selvtilfredshed med automatiserede systemer. Menneskelige analytikere bringer kontekst og dømmekraft, som AI mangler, og tillader nuanceret beslutningstagning i komplekse eller tvetydige tilfælde, som fortsat er essentiel i AFC-undersøgelser.

Blandt risikoen for afhængighed af AI er muligheden for fejl (f.eks. falske positiver, falske negativer) og bias. AI kan være tilbøjelig til falske positiver, hvis modellerne ikke er godt afstemt, eller er trænet på fordomsfulde data. Mens mennesker også er tilbøjelige til fordomme, er den tilføjede risiko for AI, at det kan være svært at identificere fordomme inden for systemet.

Desuden kan AI-modeller kun køre på de data, der fødes til dem – de kan ikke fange nye eller sjældne mistænkelige mønstre uden for historiske tendenser eller baseret på virkelige verdensindsigter. En fuldstændig erstatning af regelbaserede systemer med AI kunne efterlade blinde pletter i AFC-overvågning.

I tilfælde af bias, tvetydighed eller nytænkning har AFC brug for et diskernerende øje, som AI ikke kan give. Samtidig, hvis vi fjerner mennesker fra processen, kunne det alvorligt hæmme evnen til at forstå mønstre i finansielle forbrydelser, spotte mønstre og identificere opdyrkende tendenser. Dette kunne gøre det sværere at holde automatiserede systemer op til date.

En hybrid tilgang: kombination af regelbaserede og AI-drevne AFC

Finansielle institutioner kan kombinere en regelbaseret tilgang med AI-værktøjer for at skabe et multi-lag system, der udnytter styrkerne i begge tilgange. Et hybrid-system vil gøre AI-implementering mere præcis på længere sigt og mere fleksibelt i forhold til opdyrkende finansielle forbrydelses-trusler, uden at ofre gennemsigtighed.

For at gøre dette kan institutioner integrere AI-modeller med løbende menneskelig feedback. Modellernes adaptive læring vil derefter ikke kun vokse baseret på datapatterns, men også på menneskelig input, der raffinerer og genbalancerer det.

Ikke alle AI-systemer er lige. AI-modeller skal undergå kontinuerlig testning for at evaluere nøjagtighed, retfærdighed og overholdelse, med regelmæssige opdateringer baseret på regulatoriske ændringer og nye trusselsintel, som identificeres af AFC-holdene.

Risiko- og overholdelseseksperter skal trænes i AI eller en AI-ekspert skal ansættes til holdet for at sikre, at AI-udvikling og -implementering udføres inden for bestemte rammer. De skal også udvikle overholdelsesrammer specifikt til AI, og etablere en vej til regulatorisk overholdelse i en opdyrkende sektor for overholdelseseksperter.

Som en del af AI-adopteringsprocessen er det vigtigt, at alle elementer i organisationen briefes om de nye AI-modellers kapaciteter, men også deres svagheder (såsom potentiel bias), for at gøre dem mere perceptive over for potentielle fejl.

Organisationen skal også sikre andre strategiske overvejelser for at bevare sikkerhed og datakvalitet. Det er essentiel at investere i højkvalitets-, sikker data-infrastruktur og sikre, at de trænes på nøjagtige og diverse datasæt.

AI er og vil fortsat være både en trussel og et forsvarsværktøj for banker. Men de har brug for at håndtere denne nye, kraftfulde teknologi korrekt for at undgå at skabe problemer i stedet for at løse dem.

Gabriella Bussien er CEO i tech-first finansiel kriminalitetsforebyggelse organisation Trapets, en nordisk markedsleder siden 2000. Hun har mere end 20 års erfaring med at skala forretninger og håndtere risiko i organisationer, herunder Morgan Stanley og Thomson Reuters.