Vordenker
KI und Prävention von Finanzkriminalität: Warum Banken einen ausgewogenen Ansatz benötigen
KI ist für Banken eine zweischneidige Klinge: Einerseits schafft sie viele Möglichkeiten für effizientere Betriebsabläufe, andererseits birgt sie externe und interne Risiken.
Finanzkriminelle nutzen die Technologie, um Deepfake-Videos, Stimmen und gefälschte Dokumente herzustellen, die an Computer- und menschliche Erkennung vorbeikommen können, oder um E-Mail-Betrugsaktivitäten zu beschleunigen. Allein in den USA wird erwartet, dass generative KI den Betrugsverlusten zu einem jährlichen Wachstum von 32% verhelfen wird, was bis 2027 40 Milliarden US-Dollar erreichen wird, laut einem aktuellen Bericht von Deloitte.
Vielleicht sollte die Reaktion der Banken darin bestehen, sich mit noch besseren Werkzeugen zu bewaffnen und KI bei der Prävention von Finanzkriminalität einzusetzen. Finanzinstitute setzen tatsächlich bereits KI in Anti-Finanzkriminalitäts-(AFC)-Bemühungen ein – um Transaktionen zu überwachen, verdächtige Aktivitätsberichte zu generieren, Betrugsbekämpfung zu automatisieren und mehr. Diese haben das Potenzial, Prozesse zu beschleunigen und gleichzeitig die Genauigkeit zu erhöhen.
Das Problem entsteht, wenn Banken die Implementierung von KI nicht mit menschlichem Urteilsvermögen ausbalancieren. Ohne einen Menschen in der Schleife kann die KI-Adoption Auswirkungen auf die Compliance, Voreingenommenheit und Anpassungsfähigkeit an neue Bedrohungen haben.
Wir glauben an einen vorsichtigen, hybriden Ansatz für die KI-Adoption im Finanzsektor, der weiterhin menschliche Eingaben erfordern wird.
Der Unterschied zwischen regelbasierten und KI-getriebenen AFC-Systemen
Traditionell haben AFC- und insbesondere Anti-Geldwäsche-(AML)-Systeme mit festen Regeln gearbeitet, die von Compliance-Teams als Reaktion auf Vorschriften festgelegt wurden. Im Falle der Transaktionsüberwachung beispielsweise werden diese Regeln implementiert, um Transaktionen auf der Grundlage spezifischer vordefinierter Kriterien wie Transaktionsbetragsgrenzen oder geografischen Risikofaktoren zu kennzeichnen.
KI bietet eine neue Möglichkeit, Finanzkriminalitätsrisiken zu überprüfen. Machine-Learning-Modelle können verwendet werden, um verdächtige Muster auf der Grundlage einer Reihe von Datensätzen zu erkennen, die ständig weiterentwickelt werden. Das System analysiert Transaktionen, historische Daten, Kundenverhalten und Kontextdaten, um auf verdächtiges Verhalten zu überwachen, während es über die Zeit lernt und möglicherweise effektivere Kriminalitätsüberwachung bietet.
Allerdings sind regelbasierte Systeme vorhersehbar und leicht auditable, während KI-getriebene Systeme ein komplexes “Black-Box”-Element aufgrund undurchsichtiger Entscheidungsprozesse einführen. Es ist schwieriger, die Begründung eines KI-Systems für die Kennzeichnung bestimmten Verhaltens als verdächtig nachzuvollziehen, da so viele Elemente beteiligt sind. Dies kann dazu führen, dass das KI-System zu einem bestimmten Schluss kommt, der auf veralteten Kriterien basiert, oder falsche Erkenntnisse liefert, ohne dass dies sofort erkennbar ist. Es kann auch Probleme für die regulatorische Compliance eines Finanzinstituts verursachen.
Mögliche regulatorische Herausforderungen
Finanzinstitute müssen strengen regulatorischen Standards entsprechen, wie der EU-Richtlinie AMLD und dem US-Bank Secrecy Act, die klare, nachvollziehbare Entscheidungsfindung vorschreiben. KI-Systeme, insbesondere Deep-Learning-Modelle, können schwer zu interpretieren sein.
Um die Verantwortlichkeit bei der KI-Adoption zu gewährleisten, benötigen Banken sorgfältige Planung, gründliche Tests, spezielle Compliance-Rahmenbedingungen und menschliche Aufsicht. Menschen können automatisierte Entscheidungen validieren, indem sie beispielsweise die Begründung für eine gekennzeichnete Transaktion interpretieren, und sie für Regulierungsbehörden erklärbar und vertretbar machen.
Finanzinstitute stehen auch unter zunehmendem Druck, Explainable AI (XAI)-Tools zu verwenden, um KI-getriebene Entscheidungen für Regulierungsbehörden und Prüfer verständlich zu machen. XAI ist ein Prozess, der es Menschen ermöglicht, die Ausgabe eines KI-Systems und dessen zugrunde liegende Entscheidungsfindung zu verstehen.
Menschliches Urteilsvermögen ist für eine umfassende Sicht erforderlich
Die Adoption von KI darf nicht zu einer Selbstzufriedenheit mit automatisierten Systemen führen. Menschliche Analysten bringen Kontext und Urteilsvermögen mit, die KI fehlt, und ermöglichen nuancierte Entscheidungsfindung in komplexen oder mehrdeutigen Fällen, was in AFC-Untersuchungen unerlässlich bleibt.
Zu den Risiken der Abhängigkeit von KI gehören die Möglichkeit von Fehlern (z. B. falschen Positiven, falschen Negativen) und Voreingenommenheit. KI kann anfällig für falsche Positive sein, wenn die Modelle nicht gut abgestimmt sind oder auf voreingenommenen Daten trainiert wurden. Menschen sind auch anfällig für Voreingenommenheit, aber das zusätzliche Risiko von KI besteht darin, dass es schwierig sein kann, Voreingenommenheit innerhalb des Systems zu identifizieren.
Darüber hinaus laufen KI-Modelle auf den Daten, die ihnen zugeführt werden – sie können möglicherweise nicht neue oder seltene verdächtige Muster außerhalb historischer Trends oder auf der Grundlage realer Erkenntnisse erkennen. Eine vollständige Ersetzung von regelbasierten Systemen durch KI könnte Blindstellen in der AFC-Überwachung hinterlassen.
In Fällen von Voreingenommenheit, Mehrdeutigkeit oder Neuheit benötigt die AFC ein differenziertes Auge, das KI nicht bieten kann. Gleichzeitig könnte die Entfernung von Menschen aus dem Prozess die Fähigkeit der Teams, Muster in Finanzkriminalität zu erkennen, zu erkennen und aufkommende Trends zu identifizieren, stark beeinträchtigen. Dies könnte es wiederum schwieriger machen, automatisierte Systeme auf dem neuesten Stand zu halten.
Ein hybrider Ansatz: Kombination von regelbasierten und KI-getriebenen AFC
Finanzinstitute können einen regelbasierten Ansatz mit KI-Tools kombinieren, um ein mehrschichtiges System zu erstellen, das die Stärken beider Ansätze nutzt. Ein hybrides System wird die KI-Implementierung langfristig genauer und flexibler bei der Bekämpfung aufkommender Finanzkriminalitätsbedrohungen machen, ohne Transparenz zu opfern.
Dazu können Institutionen KI-Modelle mit laufender menschlicher Rückmeldung integrieren. Das adaptive Lernen der Modelle würde somit nicht nur auf Datenmustern, sondern auch auf menschlicher Eingabe basieren, die es verfeinert und neu ausbalanciert.
Nicht alle KI-Systeme sind gleich. KI-Modelle sollten kontinuierlich getestet werden, um Genauigkeit, Fairness und Compliance zu bewerten, mit regelmäßigen Updates auf der Grundlage regulatorischer Änderungen und neuer Bedrohungsanalysen, wie sie von den AFC-Teams identifiziert werden.
Risiko- und Compliance-Experten müssen in KI ausgebildet werden oder ein KI-Experte sollte zum Team gehören, um sicherzustellen, dass die KI-Entwicklung und -Implementierung innerhalb bestimmter Grenzen durchgeführt wird. Sie müssen auch Compliance-Rahmenbedingungen speziell für KI entwickeln, um einen Weg zur regulatorischen Einhaltung in einem aufkommenden Sektor für Compliance-Experten zu schaffen.
Als Teil der KI-Adoption ist es wichtig, dass alle Elemente der Organisation über die Fähigkeiten der neuen KI-Modelle, mit denen sie arbeiten, informiert werden, aber auch über ihre Mängel (wie potenzielle Voreingenommenheit), um sie empfindlicher gegenüber möglichen Fehlern zu machen.
Die Organisation muss auch andere strategische Überlegungen anstellen, um Sicherheit und Datenqualität zu erhalten. Es ist wichtig, in hochwertige, sichere Dateninfrastruktur zu investieren und sicherzustellen, dass diese auf genauen und vielfältigen Datensätzen trainiert werden.
KI ist und wird sowohl eine Bedrohung als auch ein Verteidigungsinstrument für Banken sein. Aber sie müssen diese mächtige neue Technologie richtig handhaben, um Probleme zu vermeiden, anstatt sie zu lösen.












