Liderzy opinii
Sztuczna inteligencja i zapobieganie przestępczości finansowej: Dlaczego banki potrzebują zrównoważonego podejścia
Sztuczna inteligencja jest dwuznacznym narzędziem dla banków: z jednej strony odblokowuje wiele możliwości dla bardziej efektywnych operacji, z drugiej strony może stanowić zarówno zewnętrzne, jak i wewnętrzne ryzyko.
Przestępcy finansowi wykorzystują tę technologię do produkcji deepfake’ów, głosów i fałszywych dokumentów, które mogą ominąć wykrywanie przez komputery i ludzi, lub nasilić działania oszustw za pomocą poczty e-mail. W samych Stanach Zjednoczonych generatywna sztuczna inteligencja ma przyspieszyć straty związane z oszustwami o 32% rocznie, sięgając 40 miliardów dolarów do 2027 roku, według raportu Deloitte.
Być może odpowiedzią banków powinno być uzbrojenie się w jeszcze lepsze narzędzia, wykorzystując sztuczną inteligencję w zapobieganiu przestępczości finansowej. Instytucje finansowe zaczynają wdrażać sztuczną inteligencję w wysiłkach przeciwko przestępczości finansowej (AFC) – do monitorowania transakcji, generowania raportów o podejrzanych działaniach, automatyzowania wykrywania oszustw i więcej. Mają one potencjał przyspieszyć procesy, zwiększając jednocześnie dokładność.
Problem pojawia się, gdy banki nie równoważą wdrożenia sztucznej inteligencji z ludzkim osądem. Bez człowieka w pętli, wdrożenie sztucznej inteligencji może wpłynąć na zgodność, stronniczość i adaptację do nowych zagrożeń.
Wierzymy w ostrożne, hybrydowe podejście do wdrożenia sztucznej inteligencji w sektorze finansowym, które nadal będzie wymagało ludzkiego wkładu.
Różnica między systemami AFC opartymi na regułach a systemami napędzanymi przez sztuczną inteligencję
Tradycyjnie systemy AFC – a w szczególności systemy przeciwko praniu brudnych pieniędzy (AML) – działały z ustalonymi regułami określonymi przez zespoły ds. zgodności w odpowiedzi na przepisy. W przypadku monitorowania transakcji te reguły są wdrażane w celu oznaczenia transakcji na podstawie określonych, predefiniowanych kryteriów, takich jak progi kwot transakcji lub czynniki ryzyka geograficznego.
Sztuczna inteligencja przedstawia nowy sposób screeningu ryzyka przestępczości finansowej. Modele uczenia maszynowego mogą być wykorzystywane do wykrywania podejrzanych wzorców na podstawie serii zestawów danych, które są w ciągłej ewolucji. System analizuje transakcje, dane historyczne, zachowania klientów i dane kontekstowe, aby monitorować wszystko, co podejrzane, ucząc się przez cały czas i oferując adaptacyjne i potencjalnie bardziej skuteczne monitorowanie przestępczości.
Jednakże, podczas gdy systemy oparte na regułach są przewidywalne i łatwe do audytu, systemy napędzane przez sztuczną inteligencję wprowadzają skomplikowany element „czarnej skrzynki” ze względu na nieprzezroczyste procesy podejmowania decyzji. Trudno śledzić, dlaczego system sztucznej inteligencji oznaczył określone zachowanie jako podejrzane, biorąc pod uwagę, że zaangażowanych jest tak wiele elementów. Może to spowodować, że system sztucznej inteligencji dochodzi do pewnych wniosków na podstawie przestarzałych kryteriów lub dostarcza faktograficznie niepoprawnych informacji, bez tego, że byłoby to natychmiast zauważalne. Może to również powodować problemy dla zgodności regulacyjnej instytucji finansowych.
Mogące wystąpić wyzwania regulacyjne
Instytucje finansowe muszą przestrzegać surowych standardów regulacyjnych, takich jak dyrektywa Unii Europejskiej AMLD i amerykański Bank Secrecy Act, które nakazują jasne, ślady podejmowania decyzji. Systemy sztucznej inteligencji, szczególnie modele głębokiego uczenia, mogą być trudne do interpretacji.
Aby zapewnić odpowiedzialność podczas wdrożenia sztucznej inteligencji, banki potrzebują starannego planowania, gruntownego testowania, specjalistycznych ram compliance i nadzoru ludzkiego. Ludzie mogą zwalidować zautomatyzowane decyzje, interpretując na przykład powody, dla których transakcja została oznaczona, czyniąc ją zrozumiałą i obronioną przed regulatorami.
Instytucje finansowe są również pod coraz większą presją, aby wykorzystywać Explainable AI (XAI) narzędzia, aby uczynić decyzje napędzane przez sztuczną inteligencję zrozumiałymi dla regulatorów i audytorów. XAI jest procesem, który umożliwia ludziom zrozumienie danych wyjściowych systemu sztucznej inteligencji i jego podstawowego podejmowania decyzji.
Wymagany osąd ludzki dla holistycznego widoku
Wdrożenie sztucznej inteligencji nie może prowadzić do samozadowolenia z zautomatyzowanymi systemami. Analitycy ludzcy przynoszą kontekst i osąd, których sztuczna inteligencja nie posiada, umożliwiając nuansowane podejmowanie decyzji w skomplikowanych lub niejednoznacznych przypadkach, co pozostaje niezbędne w dochodzeniach AFC.
Jednym z ryzyk związanych z uzależnieniem od sztucznej inteligencji jest możliwość błędów (np. fałszywie dodatnich, fałszywie ujemnych) i stronniczości. Sztuczna inteligencja może być podatna na fałszywie dodatnie wyniki, jeśli modele nie są dobrze dostosowane lub są szkolone na stronniczych danych. Podczas gdy ludzie również są podatni na stronniczość, dodatkowe ryzyko sztucznej inteligencji polega na tym, że może być trudno zidentyfikować stronniczość w systemie.
Ponadto modele sztucznej inteligencji działają na danych, które są im podawane – mogą one nie wykryć nowych lub rzadkich podejrzanych wzorców poza historycznymi trendami lub opartymi na rzeczywistych wglądach. Pełna замiana systemów opartych na regułach na sztuczną inteligencję mogłaby pozostawić ślepe punkty w monitorowaniu AFC.
W przypadku stronniczości, niejasności lub nowości AFC potrzebuje dyskernego oka, którego sztuczna inteligencja nie może dostarczyć. Jednocześnie, jeśli usunęlibyśmy ludzi z procesu, mogłoby to znacznie ograniczyć zdolność zespołów do zrozumienia wzorców przestępczości finansowej, wykrywania wzorców i identyfikowania pojawiających się trendów. Mogłoby to utrudnić utrzymanie zautomatyzowanych systemów na bieżąco.
Podejście hybrydowe: łączenie systemów AFC opartych na regułach i napędzanych przez sztuczną inteligencję
Instytucje finansowe mogą połączyć podejście oparte na regułach z narzędziami sztucznej inteligencji, tworząc wielowarstwowy system, który wykorzystuje zalety obu podejść. System hybrydowy uczyni wdrożenie sztucznej inteligencji bardziej dokładnym w długiej perspektywie i bardziej elastycznym w rozwiązywaniu pojawiających się zagrożeń przestępczości finansowej, bez poświęcania przejrzystości.
Aby to zrobić, instytucje mogą zintegrować modele sztucznej inteligencji z ciągłym feedbackiem ludzkim. Adaptacyjne uczenie się modeli będzie rosło nie tylko na podstawie wzorców danych, ale również na podstawie ludzkiego wkładu, który udoskonala i rebalansuje je.
Nie wszystkie systemy sztucznej inteligencji są równe. Modele sztucznej inteligencji powinny przechodzić ciągłe testy w celu oceny dokładności, uczciwości i zgodności, z regularnymi aktualizacjami opartymi na zmianach regulacyjnych i nowych informacjach o zagrożeniach, jak wykryte przez zespoły AFC.
Eksperci ds. ryzyka i compliance muszą być przeszkoleni w zakresie sztucznej inteligencji lub powinien zostać zatrudniony ekspert ds. sztucznej inteligencji do zespołu, aby zapewnić, że rozwój i wdrożenie sztucznej inteligencji są realizowane w ramach określonych ograniczeń. Muszą oni również opracować ramy compliance specyficzne dla sztucznej inteligencji, ustanawiając ścieżkę do zgodności regulacyjnej w nowym sektorze dla ekspertów ds. compliance.
Jako część wdrożenia sztucznej inteligencji, ważne jest, aby wszystkie elementy organizacji zostały poinformowane o możliwościach nowych modeli sztucznej inteligencji, z którymi pracują, ale również o ich słabościach (takich jak potencjalna stronniczość), aby uczynić je bardziej wrażliwymi na potencjalne błędy.
Twoja organizacja musi również podjąć inne strategiczne rozważania, aby zachować bezpieczeństwo i jakość danych. Jest niezbędne, aby zainwestować w wysokiej jakości, bezpieczną infrastrukturę danych i zapewnić, że są one szkolone na dokładnych i zróżnicowanych zestawach danych.
Sztuczna inteligencja jest i będzie zarówno zagrożeniem, jak i narzędziem obronnym dla banków. Ale muszą one obsługiwać tę potężną nową technologię poprawnie, aby uniknąć tworzenia problemów zamiast ich rozwiązywania.












