Connect with us

Tekoäly ja rahanpesun estäminen: Miksi pankeille tarvitaan tasapainoinen lähestymistapa

Ajatusjohtajat

Tekoäly ja rahanpesun estäminen: Miksi pankeille tarvitaan tasapainoinen lähestymistapa

mm

Tekoäly on pankeille kaksiteräinen miekka: se avaa monia mahdollisuuksia tehokkaampiin toimintoihin, mutta se voi myös aiheuttaa ulkoisia ja sisäisiä riskejä.

Rahanpesun harjoittajat hyödyntävät tekniikkaa tuottaakseen deepfake-videota, ääniä ja väärennettyjä asiakirjoja, jotka voivat päästä tietokoneen ja ihmisen havaitsemien tarkastusten ohi, tai lisätä sähköpostihuijauksia. Yhdysvalloissa yksin generatiivinen tekniikka odotetaan kiihdyttävän petosvahinkoja 32 prosentin vuosittaiseen kasvuun, jolloin ne saavuttavat 40 miljardin dollarin vuosittaisen kasvun vuoteen 2027 mennessä, Deloitten raportin mukaan.

Ehkä siis pankkien vastaus olisi aseistautua entistä paremmilla työkaluilla, hyödyntämällä tekniikkaa rahanpesun estämisessä. Rahoituslaitokset ovat tosiasiassa aloittaneet tekniikan käytön rahanpesun estämisessä (AFC) – seuratakseen transaktioita, luodakseen epäilyttävien toimien raportteja, automatisoidakseen petosten havaitsemisen ja enemmän. Nämä voivat kiihdyttää prosesseja parantaen samalla tarkkuutta.

Ongelma on, kun pankit eivät tasapainota tekniikan käyttöönottoa inhimillisen arvionnan kanssa. Ilman inhimillistä osallistumista tekniikan käyttöönotto voi vaikuttaa sääntelyyn, puolueellisuuteen ja sopeutumiskykyyn uusiin uhkiin.

Uskomme varovaiseen, hybridi-lähestymistapaan tekniikan käyttöönotossa rahoitussektorilla, joka edellyttää edelleen inhimillistä osallistumista.

Erinomainen ero sääntöperusteisten ja tekniikkaan perustuvien AFC-järjestelmien välillä

Perinteisesti AFC – ja erityisesti rahanpesun estämistä (AML) koskevat järjestelmät – ovat toimineet kiinteiden sääntöjen mukaan, jotka on määritellyt sääntelytiimit sääntöjen mukaisesti. Transaktioiden seuraamisen tapauksessa nämä säännöt on toteutettu merkitsemään transaktioita tiettyjen ennalta määritettyjen kriteerien perusteella, kuten transaktiosummien kynnyksillä tai maantieteellisillä riskitekijöillä.

Tekoäly esittää uuden tavan seulota rahanpesun riskiä. Konenoppimismalleja voidaan käyttää havaitsemaan epäilyttäviä malleja sarjan tietojoukkojen perusteella, jotka ovat jatkuvassa kehityksessä. Järjestelmä analysoi transaktioita, historiallisia tietoja, asiakkaan käyttäytymistä ja kontekstuaalisia tietoja seuratakseen epäilyttävää toimintaa, samalla oppien ajan myötä, tarjoten sopeutuvaa ja mahdollisesti tehokkaampaa rikoksen seuraamista.

Kuitenkin, kun sääntöperusteiset järjestelmät ovat ennustettavissa ja helposti tarkastettavissa, tekniikkaan perustuvat järjestelmät esittävät monimutkaisen “mustan laatikon” -elementin epäselvien päätöksentekoprosessien vuoksi. On vaikeampi jäljittää tekniikan järjestelmän päätöksentekoprosessia, joka johtaa tietyn käyttäytymisen merkitsemiseen epäilyttäväksi, koska niin monia tekijöitä on osallisena. Tämä voi aiheuttaa ongelmia rahoituslaitoksen sääntelyn mukaisuudelle.

Mahdolliset sääntelyhaasteet

Rahoituslaitokset on noudatettava tiukkoja sääntelyvaatimuksia, kuten EU:n AMLD ja Yhdysvaltain Bank Secrecy Act, jotka vaativat selkeää, jäljitettävää päätöksentekoa. Tekoälyjärjestelmät, erityisesti syväoppimismallit, voivat olla vaikeita tulkitsemalla.

Varmistuaksesi vastuullisuudesta tekniikan käyttöönoton aikana pankit tarvitsevat huolellista suunnittelua, perusteellista testausta, erityisiä sääntelykehyksiä ja inhimillistä valvontaa. Inhimilliset voivat vahvistaa automaattisia päätöksiä esimerkiksi tulkkaamalla syyt merkitsemiseen epäilyttäväksi, tehdessä siitä selitettävän ja puolustettavissa sääntelijöille.

Rahoituslaitokset ovat myös kasvavan paineen alla käyttää Explainable AI (XAI) -työkaluja, jotka tekevät tekniikkaan perustuvat päätökset ymmärrettäviksi sääntelijöille ja tarkastajille. XAI on prosessi, joka mahdollistaa inhimillisten ymmärtämisen tekniikan järjestelmän tulosteen ja sen perustavanlaatuista päätöksentekoa.

Inhimillinen arviointi vaaditaan kokonaisvaltaiseen näkemykseen

Tekoälyn käyttöönotto ei voi johtaa itsestäänselvyyteen automaattisilla järjestelmillä. Inhimilliset analyytikot tuovat kontekstin ja arvion, jota tekniikka puuttuu, sallien monitahoisen päätöksenteon monimutkaisissa tai epäselvissä tapauksissa, mikä on edelleen olennaista rahanpesun estämisessä.

Tekoälyn riippuvuuden riskit ovat virheiden (esim. väärät positiiviset, väärät negatiiviset) ja puolueellisuuden mahdollisuus. Tekoäly voi olla altis väärille positiivisille, jos mallit eivät ole hyvin sääteltyjä tai on koulutettu puolueellisilla tiedoilla. Vaikka inhimilliset ovat myös alttiita puolueellisuudelle, tekniikan lisäriski on, että se voi olla vaikea tunnistaa puolueellisuutta järjestelmässä.

Lisäksi tekniikan mallit toimivat tiedoilla, joita ne saavat – ne eivät voi havaita uusia tai harvinaisia epäilyttäviä malleja historiallisten trendien ulkopuolella tai perustuen maailmanlaajiin oivalluksiin. Sääntöperusteisten järjestelmien täydellinen korvaaminen tekniikalla voi jättää sokeita pisteitä rahanpesun seuraamisessa.

Epäselvissä, puolueellisissa tai uusissa tapauksissa rahanpesun estäminen tarvitsee tarkkaa silmää, jota tekniikka ei voi tarjota. Samalla, jos poistamme inhimilliset osapuolet prosessista, se voi vakavasti heikentää tiimien kykyä ymmärtää rahanpesun malleja, havaita malleja ja tunnistaa uusia uhkia. Se voi myös tehdä vaikeammaksi pitää automaattisia järjestelmiä ajan tasalla.

Hybridi-lähestymistapa: yhdistäminen sääntöperusteisiin ja tekniikkaan perustuviin AFC-järjestelmiin

Rahoituslaitokset voivat yhdistää sääntöperusteisen lähestymistavan tekniikkaan perustuvilla työkaluilla luodakseen monikerroksisen järjestelmän, joka hyödyntää molempien lähestymistapojen vahvuuksia. Hybridi-järjestelmä tekee tekniikan käyttöönotosta tarkemman pitkällä aikavälillä ja joustavamman uusien rahanpesun uhkien käsittelyssä ilman läpinäkyvyyden uhraamista.

Tämän toteuttamiseksi laitokset voivat integroida tekniikan malleja jatkuvan inhimillisen palautteen kanssa. Mallien sopeutuva oppiminen kasvaisi siis ei vain datamalleista, vaan myös inhimillisestä syötteestä, joka hienontaa ja tasapainottaa sitä.

Kaikki tekniikan järjestelmät eivät ole yhtä hyviä. Tekoälymallit on underoitava jatkuvasti testaamaan tarkkuutta, reiluutta ja sääntelyä, ja päivittämällä sääntelymuutoksia ja uusia uhkia, joita AFC-tiimit tunnistavat.

Riski- ja sääntelyasiantuntijat on koulutettava tekniikkaan tai tekniikan asiantuntija on palkattava tiimiin, varmistaakseen, että tekniikan kehitys ja käyttöönotto toteutetaan tiettyjen rajoitusten puitteissa. Heidän on myös kehitettävä sääntelykehyksiä, jotka on erityisesti suunniteltu tekniikalle, ja luotava polku sääntelyn mukaisuuteen nousussa olevalla alalla sääntelyasiantuntijoille.

Tekoälyn käyttöönoton yhteydessä on tärkeää, että kaikki organisaation osat on tiedustettu uusien tekniikan mallien kyvyistä, mutta myös niiden puutteista (kuten mahdollisesta puolueellisuudesta), jotta he voivat olla herkempiä mahdollisille virheille.

Organisaation on myös varmistettava, että kaikki muut strategiset harkinnat tehdään turvallisuuden ja datan laadun säilyttämiseksi. On tärkeää investoida laadukkaisiin, turvallisiin data-infrarakenteisiin ja varmistaa, että ne on koulutettu tarkkaan ja monipuolisiin tietojoukkoihin.

Tekoäly on ja tulee olemaan sekä uhka että puolustusväline pankkeja vastaan. Mutta heidän on käsiteltävä tätä voimakasta uutta tekniikkaa oikein välttääkseen ongelmien luomisen ratkaisemisen sijaan.

Gabriella Bussien on toimitusjohtaja teknologiaan perustuvassa rahanpesun torjuntayrityksessä Trapets, joka on ollut pohjoismaiden markkinajohtaja vuodesta 2000. Hänellä on yli 20 vuoden kokemus liiketoiminnan kasvattamisesta ja riskien hallinnasta yrityksissä kuten Morgan Stanley ja Thomson Reuters.