Connect with us

Warum Ihre manuellen Betrugsanalysten möglicherweise die falschen Dinge betrachten

Vordenker

Warum Ihre manuellen Betrugsanalysten möglicherweise die falschen Dinge betrachten

mm
A male fraud analyst meticulously examines a physical paper document while sitting at a computer workstation in a modern office.

Laut einer aktuellen Branchenumfrage überprüfen fast drei Viertel der Finanzinstitute immer noch manuell einen erheblichen Teil ihrer Einkommensdokumente auf Betrug, wobei viele bis zu die Hälfte aller Einreichungen von Hand überprüfen. Angesichts der Entstehung leistungsstarker KI-Modelle, die in der Lage sind, sophisticatede, automatisierte Entscheidungen zu treffen, warum verlassen sich so viele Kreditgeber immer noch auf menschliche Augen, um gefälschte Gehaltsabrechnungen und veränderte Bankauszüge zu erkennen?

Die Antwort geht über die institutionelle Trägheit hinaus. Manuelle Analysten bringen echten Wert und erfahrene Prüfer entwickeln Mustererkennung, die algorithmisch schwer zu replizieren ist. Aber es gibt einen Unterschied zwischen der Beibehaltung von Menschen im Prozess und der Konzentration auf Arbeiten, die einzig und allein menschliches Urteilsvermögen nutzen. Viele Kreditgeber machen diesen Unterschied nicht klar genug, und die Folgen zeigen sich in Betrugsraten, Arbeitskosten und der Exposition gegenüber dem Betrug, der am schwersten zu fangen ist.

Was erfahrene Analysten tatsächlich zur Verfügung stellen

Bevor man den Fall für eine Änderung macht, ist es wichtig zu verstehen, was Betrugsanalysten besonders gut können. Erfahrene Betrugsanalysten sind keine Kästchenersteller. Ein Analyst, der über Jahre hinweg Tausende von Einkommensdokumenten verarbeitet hat, hat Hinweise internalisiert, die kein Regelsatz vollständig erfassen kann. Menschliche Analysten tragen auch etwas, was automatisierte Systeme nicht können: institutionelle und regulatorische Verantwortung. Sie verstehen die operative Kultur ihres Unternehmens, regulatorische Erwartungen, Technologietrends und andere allgemeine Einsichten, die aus der Teilnahme an der Welt stammen. Analysten können auch Anomalien aufdecken, die außerhalb der Trainingsdaten eines Modells liegen, insbesondere wenn Betrugsringe auf wirklich neue Weise operieren.

Interessanterweise unterstreichen die Grenzen der KI selbst, warum menschliche Überwachung wichtig ist. Der Stanford HAI 2026 AI Index hat dokumentiert, was Forscher “jagged intelligence” nennen: fortschrittliche Modelle, die in der Lage sind, Graduate-Level-Wissenschaftsexamen zu bestehen, die jedoch bei Aufgaben, die ein Kind bewältigen kann, wie dem Lesen einer analogen Uhr, nur etwa die Hälfte der Zeit erfolgreich sind. KI kann komplexe Betrugsringe erkennen, aber grundlegende Phishing-Muster verpassen. Dieses ungleiche Fähigkeitsprofil ist ein Argument für eine sorgfältige menschliche Überwachung, nicht für den Status quo.

Die harten Grenzen, die kein Analyst überwinden kann

Die Anerkennung dessen, was manuelle Analysten gut können, sollte nicht verschleiern, was sie einfach nicht können. Dokumenten-Metadaten sind für das bloße Auge unsichtbar, aber für computergesteuerte Werkzeuge sehr aufschlussreich: Erstellungsdaten, Bearbeitungshistorie, Software-Signaturen und GPS-Daten, die in einem gescannten Bild eingebettet sind, können ein gefälschtes Dokument in Sekunden aufdecken. Ein menschlicher Prüfer wird niemals diese Metadaten sehen.

Konsortiums- und Netzwerkdaten liegen ähnlich außerhalb des Beobachtungshorizonts eines Analysten. Das Erkennen einer einzelnen Sozialversicherungsnummer, die in mehreren Autohändler-Anträgen in derselben Woche verwendet wird, ist computertechnisch trivial und menschlich unmöglich in großem Umfang. Die Erkennung von Mikroinkonsistenzen folgt der gleichen Logik: Subtile Schriftänderungen, pixelgenaue Änderungen und Formatierungsunregelmäßigkeiten in gefälschten Dokumenten erfordern einen computergesteuerten Vergleich, um zuverlässig aufzudecken. Wenn die Auto-Kreditvolumina wachsen, skaliert die manuelle Überprüfung nicht. Sie wird einfach teurer.

Das Fehlallokationsproblem

Das Problem ist nicht, dass Kreditgeber manuelle Analysten verwenden. Es ist, dass sie sie auf die falschen Dokumente und Workflows anwenden. Wenn Institutionen bis zu die Hälfte ihrer Einkommensdokumente manuell überprüfen, verbringen Analysten den größten Teil ihrer Zeit mit Einreichungen, die KI automatisch freigeben oder markieren könnte. Die Dokumente, die tatsächlich ein geschultes menschliches Auge erfordern, stellen einen Bruchteil des Gesamtvolumens dar.

Die Folge ist vorhersehbar. Analysten werden müde und weniger scharf, gerade wenn sie auf komplexe, hochriskante Fälle stoßen, die tatsächlich ihre Expertise erfordern. Der schwerste Betrug versteckt sich genau an den Orten, an denen ein müder Prüfer, der durch eine lange Warteschlange arbeitet, am wenigsten in der Lage ist, ihn zu finden. Hohe Arbeitskosten, geringere Durchlaufzeit und keine wesentliche Verbesserung der Betrugsdetektionsraten sind kein Kompromiss, der es wert ist.

Was ein smarteres Modell aussieht

Die Lösung besteht nicht darin, die manuelle Überprüfung zu eliminieren. Es besteht darin, sie neu zu verteilen. Automatisierte Werkzeuge sollten den Volumen bewältigen: Einkommensdokumente auf bekannte Betrugsmerkmale, Metadatenanomalien und Konsortiumdatentreffer überprüfen. Das befreit Analysten, um sich auf Randfälle, Beschwerden, Eskalationen und neuartige Betrugsmuster zu konzentrieren, die KI-Werkzeuge nicht in der Lage sind, zu lösen.

Institutionen übersehen oft eine weitere Ebene: KI überwacht KI. Automatisierte Systeme sollten überwachen, wie Entscheidungswerkzeuge verwendet werden und ob Ergebnisse in einer Weise abweichen, die Modellverschlechterung oder neue Betrugsvektoren signalisiert. Menschliche Überwachung ist am wertvollsten, wenn sie an Hebelstellen positioniert ist, nicht gleichmäßig über jedes Dokument in der Warteschlange verteilt. Klare Eskalationsprotokolle mit definierten Schwellenwerten, die regelmäßig geprüft werden, sind das, was dieses Modell davon abhält, in Gewohnheit zu verfallen.

Die Compliance-Dimension, die Kreditgeber nicht ignorieren können

Regulierungsbehörden achten genauer darauf, wie KI-gestützte Betrugsdetektionsentscheidungen getroffen werden und wer für sie verantwortlich ist. Institutionen, die einen gestuften Überprüfungsprozess dokumentieren können, KI-Screening gefolgt von gezielter manueller Überprüfung auf definierte Kriterien, werden besser positioniert sein als die, die auf undurchsichtige Automatisierung oder undifferenzierte manuelle Überprüfung vertrauen. Ein Black-Box-System, das niemand in der Institution erklären kann, ist eine Haftung, keine Lösung.

Compliance-Beauftragte müssen nahe genug an der Technologie sein, um zu verstehen, was die KI tatsächlich tut, und nicht nur ein System abzeichnen, das sie nie bewertet haben. Dazu ist eine Investition in Schulungen, Transparenz der Anbieter und eine laufende Prüffunktion erforderlich, die menschliches Urteilsvermögen sinnvoll mit automatisierten Ergebnissen verbindet.

Die richtige Frage, die gestellt werden sollte

Die Beobachtung, dass drei Viertel der Kreditgeber immer noch stark auf manuelle Betrugsüberprüfung vertrauen, ist kein Skandal. Es mag ein gesunder Instinkt widerspiegeln, Menschen in einem hochriskanten Prozess verantwortlich zu halten. Aber Instinkt ist nicht Strategie. Das Volumen der manuellen Überprüfung, das in der Branche stattfindet, spiegelt keine bewusste Entscheidung darüber wider, wo menschliches Urteilsvermögen den größten Wert hat. Es spiegelt Gewohnheit wider.

Jede Institution in diesem Bereich sollte sich nicht fragen, ob manuelle Überprüfung verwendet werden sollte, sondern wo, wie viel und auf welche. Die Kreditgeber, die diese Frage klar beantworten und Workflows entsprechend aufbauen, werden mehr Betrug aufdecken, weniger Geld ausgeben und besser positioniert sein, wenn Regulierungsbehörden nachfragen, wie Entscheidungen getroffen wurden. Die Analysten, die routinemäßige Dokumente überprüft haben, verdienen es, an den Fällen zu arbeiten, die tatsächlich ihre Expertise erfordern.

Tom Oscherwitz ist Informed’s General Counsel. Er verfügt über mehr als 25 Jahre Erfahrung als leitender Regulator der Regierung (CFPB, U.S. Senate) und als Fintech-Rechtsanwalt, der an der Schnittstelle von Verbraucherdaten, Analysen und Regulierungsrichtlinien arbeitet. Für weitere Informationen besuchen Sie www.informediq.com.