Liderzy myśli
AI i zapobieganie przestępstwom finansowym: dlaczego banki potrzebują zrównoważonego podejścia

Sztuczna inteligencja jest dla banków monetą o dwóch stronach: otwiera wiele możliwości zwiększenia efektywności działania, ale może też wiązać się z ryzykiem zewnętrznym i wewnętrznym.
Przestępcy finansowi wykorzystują tę technologię do produkcji głębokie fałszywe filmy, głosy i fałszywe dokumenty, które mogą ominąć wykrywanie komputerowe i ludzkie lub doładować działania związane z oszustwami e-mailowymi. Oczekuje się, że w samych Stanach Zjednoczonych generatywna sztuczna inteligencja przyspieszy straty spowodowane oszustwami do rocznego wskaźnika wzrostu wynoszącego 32%, osiągając 40 miliardów dolarów do 2027 r., zgodnie z niedawnym raport Deloitte.
Być może zatem reakcją banków powinno być uzbrojenie się w jeszcze lepsze narzędzia, wykorzystujące AI w zapobieganiu przestępstwom finansowym. Instytucje finansowe faktycznie zaczynają wdrażać AI w działaniach przeciwko przestępczości finansowej (AFC) – w celu monitorowania transakcji, generowania raportów o podejrzanej aktywności, automatyzacji wykrywania oszustw i nie tylko. Mają one potencjał przyspieszenia procesów przy jednoczesnym zwiększeniu dokładności.
Problem pojawia się, gdy banki nie równoważą wdrażania AI z ludzkim osądem. Bez udziału człowieka, wdrażanie AI może wpływać na zgodność, stronniczość i zdolność adaptacji do nowych zagrożeń.
Wierzymy w ostrożne, hybrydowe podejście do wdrażania sztucznej inteligencji w sektorze finansowym, które nadal będzie wymagało udziału człowieka.
Różnica między systemami AFC opartymi na regułach i systemami AFC opartymi na sztucznej inteligencji
Tradycyjnie AFC – a w szczególności systemy przeciwdziałania praniu pieniędzy (AML) – działały według stałych reguł ustalonych przez zespoły ds. zgodności w odpowiedzi na przepisy. W przypadku monitorowania transakcji, na przykład, reguły te są wdrażane w celu oznaczania transakcji na podstawie określonych wstępnie zdefiniowanych kryteriów, takich jak progi kwot transakcji lub geograficzne czynniki ryzyka.
AI prezentuje nowy sposób przesiewania ryzyka przestępstw finansowych. Modele uczenia maszynowego mogą być używane do wykrywania podejrzanych wzorców na podstawie serii zestawów danych, które są w ciągłej ewolucji. System analizuje transakcje, dane historyczne, zachowania klientów i dane kontekstowe, aby monitorować wszystko podejrzane, ucząc się w czasie, oferując adaptacyjne i potencjalnie skuteczniejsze monitorowanie przestępstw.
Jednak podczas gdy systemy oparte na regułach są przewidywalne i łatwo audytowalne, systemy oparte na sztucznej inteligencji wprowadzają złożony element „czarnej skrzynki” z powodu nieprzejrzystych procesów decyzyjnych. Trudniej jest prześledzić rozumowanie systemu sztucznej inteligencji w celu oznaczenia pewnych zachowań jako podejrzanych, biorąc pod uwagę, że zaangażowanych jest tak wiele elementów. Może to spowodować, że sztuczna inteligencja dojdzie do pewnego wniosku na podstawie przestarzałych kryteriów lub dostarczy nieprawdziwych informacji, bez natychmiastowego wykrycia. Może to również powodować problemy z przestrzeganiem przepisów przez instytucję finansową.
Możliwe wyzwania regulacyjne
Instytucje finansowe muszą przestrzegać rygorystycznych norm regulacyjnych, takich jak unijne AMLD i USA Ustawa o tajemnicy bankowej, które nakazują jasne, możliwe do prześledzenia podejmowanie decyzji. Systemy AI, zwłaszcza modele głębokiego uczenia, mogą być trudne do zinterpretowania.
Aby zapewnić rozliczalność podczas przyjmowania AI, banki potrzebują starannego planowania, gruntownego testowania, specjalistycznych ram zgodności i nadzoru ze strony człowieka. Ludzie mogą weryfikować zautomatyzowane decyzje, na przykład interpretując rozumowanie stojące za oznaczoną transakcją, czyniąc ją możliwą do wyjaśnienia i obrony dla organów regulacyjnych.
Na instytucje finansowe wywierana jest również coraz większa presja, aby wykorzystywały Wytłumaczalne AI (XAI) narzędzia umożliwiające organom regulacyjnym i audytorom zrozumienie decyzji opartych na AI. XAI to proces, który umożliwia ludziom zrozumienie wyników systemu AI i jego podstawowego podejmowania decyzji.
Do całościowego spojrzenia potrzebna jest ludzka ocena
Przyjęcie AI nie może prowadzić do samozadowolenia z automatycznych systemów. Ludzcy analitycy wnoszą kontekst i osąd, których brakuje AI, umożliwiając niuansowe podejmowanie decyzji w złożonych lub niejednoznacznych przypadkach, co pozostaje niezbędne w dochodzeniach AFC.
Wśród zagrożeń związanych z zależnością od AI znajdują się możliwość błędów (np. fałszywie pozytywne, fałszywie negatywne) i stronniczość. AI może być podatna na fałszywie pozytywne wyniki, jeśli modele nie są dobrze dostrojone lub są trenowane na stronniczych danych. Podczas gdy ludzie są również podatni na stronniczość, dodatkowym ryzykiem związanym z AI jest to, że trudno jest zidentyfikować stronniczość w systemie.
Ponadto modele AI działają na danych, które są im przekazywane – mogą nie wychwytywać nowych lub rzadkich podejrzanych wzorców poza historycznymi trendami lub na podstawie spostrzeżeń ze świata rzeczywistego. Całkowite zastąpienie systemów opartych na regułach przez AI może pozostawić martwe punkty w monitorowaniu AFC.
W przypadku stronniczości, niejednoznaczności lub nowości AFC potrzebuje wnikliwego oka, którego AI nie jest w stanie zapewnić. Jednocześnie, gdybyśmy usunęli ludzi z procesu, mogłoby to poważnie ograniczyć zdolność zespołów do rozumienia wzorców w przestępczości finansowej, dostrzegania wzorców i identyfikowania pojawiających się trendów. To z kolei mogłoby utrudnić aktualizowanie zautomatyzowanych systemów.
Podejście hybrydowe: połączenie AFC opartego na regułach i napędzanego sztuczną inteligencją
Instytucje finansowe mogą łączyć podejście oparte na regułach z narzędziami AI, aby stworzyć wielowarstwowy system wykorzystujący mocne strony obu podejść. Hybrydowy system sprawi, że implementacja AI będzie dokładniejsza w dłuższej perspektywie i bardziej elastyczna w reagowaniu na pojawiające się zagrożenia przestępczością finansową, bez poświęcania przejrzystości.
Aby to zrobić, instytucje mogą integrować modele AI z ciągłym ludzkim sprzężeniem zwrotnym. Adaptacyjne uczenie się modeli nie tylko rozwijałoby się w oparciu o wzorce danych, ale także na podstawie danych wejściowych od człowieka, które je udoskonalają i równoważą.
Nie wszystkie systemy AI są sobie równe. Modele AI powinny przechodzić ciągłe testy w celu oceny dokładności, uczciwości i zgodności, z regularnymi aktualizacjami opartymi na zmianach regulacyjnych i nowych informacjach o zagrożeniach zidentyfikowanych przez zespoły AFC.
Eksperci ds. ryzyka i zgodności muszą zostać przeszkoleni w zakresie AI lub należy zatrudnić eksperta ds. AI do zespołu, aby zapewnić, że rozwój i wdrażanie AI odbywa się w ramach pewnych zabezpieczeń. Muszą również opracować ramy zgodności specyficzne dla AI, ustanawiając ścieżkę do przestrzegania przepisów w rozwijającym się sektorze dla ekspertów ds. zgodności.
W ramach wdrażania sztucznej inteligencji (AI) ważne jest, aby wszystkie elementy organizacji zostały poinformowane o możliwościach nowych modeli AI, z którymi pracują, a także o ich wadach (takich jak potencjalne stronniczość), aby mogły być bardziej wyczulone na potencjalne błędy.
Twoja organizacja musi również podjąć pewne inne strategiczne rozważania, aby zachować bezpieczeństwo i jakość danych. Istotne jest inwestowanie w wysokiej jakości, bezpieczną infrastrukturę danych i zapewnienie, że są oni szkoleni w zakresie dokładnych i zróżnicowanych zestawów danych.
AI jest i będzie zarówno zagrożeniem, jak i narzędziem obronnym dla banków. Ale muszą one prawidłowo obsługiwać tę potężną nową technologię, aby nie tworzyć problemów, zamiast je rozwiązywać.