Connect with us

Inteligența Artificială și Prevenirea Crimei Financiare: De Ce Băncile Au Nevoie de o Abordare Echilibrată

Lideri de opinie

Inteligența Artificială și Prevenirea Crimei Financiare: De Ce Băncile Au Nevoie de o Abordare Echilibrată

mm

Inteligența Artificială (AI) este o monedă cu două fețe pentru bănci: în timp ce deblochează multe posibilități pentru operațiuni mai eficiente, poate să și prezinte riscuri externe și interne.

Criminalii financiari folosesc tehnologia pentru a produce videouri deepfake, voci și documente false care pot trece de detectarea computerizată și umană, sau pentru a amplifica activitățile de fraudă prin e-mail. Numai în Statele Unite, inteligența artificială generativă se estimează că va accelera pierderile din cauza fraudei la o rată anuală de creștere de 32%, ajungând la 40 de miliarde de dolari până în 2027, conform unui raport recent al Deloitte.

Poate, prin urmare, răspunsul băncilor ar trebui să fie să se înarmeze cu instrumente și mai bune, folosind inteligența artificială în prevenirea crimei financiare. Instituțiile financiare încep de fapt să implementeze inteligența artificială în eforturile de prevenire a crimei financiare (AFC) – pentru a monitoriza tranzacțiile, a genera rapoarte de activitate suspectă, a automatiza detectarea fraudei și multe altele. Acestea au potențialul de a accelera procesele și de a crește acuratețea.

Problema apare atunci când băncile nu echilibrează implementarea inteligenței artificiale cu judecata umană. Fără un om în buclă, adoptarea inteligenței artificiale poate afecta conformitatea, prejudiciul și adaptabilitatea la noi amenințări.

Noi credem într-o abordare prudentă, hibridă, a adoptării inteligenței artificiale în sectorul financiar, care va continua să necesite input uman.

Diferența dintre sistemele AFC bazate pe reguli și cele bazate pe inteligență artificială

Tradițional, AFC – și, în special, sistemele anti-spălare de bani (AML) – au funcționat cu reguli fixe stabilite de echipele de conformitate în răspuns la reglementări. În cazul monitorizării tranzacțiilor, de exemplu, aceste reguli sunt implementate pentru a semnala tranzacții pe baza unor criterii predefinite, cum ar fi pragurile de sumă a tranzacțiilor sau factorii de risc geografic.

Inteligența artificială prezintă o nouă modalitate de screening pentru risc de crimă financiară. Modelele de învățare automată pot fi utilizate pentru a detecta modele suspecte pe baza unei serii de seturi de date care evoluează în mod constant. Sistemul analizează tranzacții, date istorice, comportamentul clienților și date contextuale pentru a monitoriza orice activitate suspectă, învățând în timp și oferind o monitorizare a crimei adaptativă și, posibil, mai eficientă.

Cu toate acestea, în timp ce sistemele bazate pe reguli sunt previzibile și ușor de auditat, sistemele bazate pe inteligență artificială introduc un element complex “cutie neagră” din cauza proceselor de luare a deciziilor opace. Este mai greu de urmărit raționamentul unui sistem de inteligență artificială pentru a semnala anumite comportamente ca suspecte, având în vedere că sunt implicate atât de multe elemente. Acest lucru poate face ca inteligența artificială să ajungă la o anumită concluzie pe baza unor criterii învechite sau să furnizeze informații incorecte, fără ca acest lucru să fie imediat detectabil. De asemenea, poate cauza probleme pentru conformitatea regulamentară a unei instituții financiare.

Possible provocări regulatorii

Instituțiile financiare trebuie să respecte standarde regulatorii stricte, cum ar fi Directiva UE privind prevenirea spălării banilor și Legea secretului bancar din SUA, care impun o luare a deciziilor clară și trasabilă. Sistemele de inteligență artificială, în special modelele de învățare profundă, pot fi dificil de interpretat.

Pentru a asigura responsabilitatea în timp ce adoptă inteligența artificială, băncile au nevoie de o planificare atentă, de testare minuțioasă, de cadre de conformitate specializate și de supraveghere umană. Oamenii pot valida deciziile automate, de exemplu, interpretând raționamentul din spatele unei tranzacții semnalate, făcând-o explicabilă și apărabilă în fața regulatorilor.

Instituțiile financiare sunt, de asemenea, sub o presiune tot mai mare de a utiliza instrumente de inteligență artificială explicabilă (XAI) pentru a face deciziile bazate pe inteligență artificială înțelese de regulatori și auditori. XAI este un proces care permite oamenilor să înțeleagă ieșirea unui sistem de inteligență artificială și procesul de luare a deciziilor subiacent.

Judecata umană necesară pentru o vedere holistică

Adoptarea inteligenței artificiale nu poate duce la complacerea cu sistemele automate. Analistii umani aduc context și judecată pe care inteligența artificială le lipsește, permițând luarea deciziilor nuanțate în cazuri complexe sau ambigue, care rămâne esențială în investigațiile AFC.

Printre riscurile dependenței de inteligența artificială se numără posibilitatea erorilor (de exemplu, false pozitive, false negative) și a prejudecăților. Inteligența artificială poate fi predispusă la false pozitive dacă modelele nu sunt bine calibrate sau sunt antrenate pe date părtinitoare. În timp ce oamenii sunt, de asemenea, susceptibili la prejudecăți, riscul suplimentar al inteligenței artificiale este că poate fi dificil să se identifice prejudecățile din sistem.

Mai mult, modelele de inteligență artificială rulează pe datele care le sunt furnizate – ele nu pot detecta modele suspecte noi sau rare din afara tendințelor istorice sau pe baza insight-urilor din lumea reală. O înlocuire completă a sistemelor bazate pe reguli cu inteligență artificială ar putea lăsa puncte oarbe în monitorizarea AFC.

În cazurile de prejudecată, ambiguitate sau noutate, AFC are nevoie de un ochi discernământ care inteligența artificială nu poate oferi. În același timp, dacă am elimina oamenii din proces, ar putea împiedica grav capacitatea echipei de a înțelege modelele de crimă financiară, de a detecta modele și de a identifica tendințele emergente. La rândul său, ar putea face mai dificilă menținerea sistemelor automate la zi.

O abordare hibridă: combinarea sistemelor AFC bazate pe reguli și a celor bazate pe inteligență artificială

Instituțiile financiare pot combina o abordare bazată pe reguli cu instrumente de inteligență artificială pentru a crea un sistem multistratificat care valorifică punctele forte ale ambelor abordări. Un sistem hibrid va face implementarea inteligenței artificiale mai precisă pe termen lung și mai flexibilă în abordarea noilor amenințări de crimă financiară, fără a sacrifica transparența.

Pentru a face acest lucru, instituțiile pot integra modele de inteligență artificială cu feedback uman continuu. Învățarea adaptivă a modelelor ar crește, astfel, nu numai pe baza modelelor de date, ci și pe baza inputului uman care rafinează și reechilibrează sistemul.

Nu toate sistemele de inteligență artificială sunt la fel. Modelele de inteligență artificială ar trebui să fie testate în mod continuu pentru a evalua acuratețea, corectitudinea și conformitatea, cu actualizări regulate pe baza schimbărilor regulatorii și a noilor informații despre amenințări, așa cum sunt identificate de echipele AFC.

Experții în risc și conformitate trebuie să fie instruiți în inteligență artificială, sau un expert în inteligență artificială ar trebui să fie angajat în echipă, pentru a asigura că dezvoltarea și implementarea inteligenței artificiale sunt executate în anumite limite. De asemenea, trebuie să dezvolte cadre de conformitate specifice inteligenței artificiale, stabilind o cale către conformitatea regulamentară într-un sector emergent pentru experții în conformitate.

Ca parte a adoptării inteligenței artificiale, este important ca toate elementele organizației să fie informate despre capacitățile noilor modele de inteligență artificială cu care lucrează, dar și despre limitările acestora (cum ar fi prejudecățile potențiale), pentru a le face mai conștiente de posibilele erori.

Organizația dumneavoastră trebuie, de asemenea, să ia anumite considerații strategice pentru a păstra securitatea și calitatea datelor. Este esențial să investiți în infrastructura de date de înaltă calitate și securitate și să vă asigurați că acestea sunt antrenate pe seturi de date precise și diverse.

Inteligența artificială este și va continua să fie atât o amenințare, cât și un instrument de apărare pentru bănci. Dar ele trebuie să gestioneze această tehnologie puternică în mod corespunzător pentru a evita crearea de probleme în loc de rezolvarea lor.

Gabriella Bussien este CEO la organizația de prevenire a infracțiunilor financiare bazată pe tehnologie Trapets, un lider pe piața nordică din 2000. Ea are peste 20 de ani de experiență în scalarea afacerilor și gestionarea riscurilor în organizații precum Morgan Stanley și Thomson Reuters.