Interviews
Husnain Bajwa, SVP of Product bei SEON – Interviewreihe

Husnain BajwaBajwa, SVP of Product bei SEON, leitet die Produktstrategie für die Risiko- und Betrugspräventionslösungen des Unternehmens und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Netzwerktechnik, Cybersicherheit und Unternehmenssoftware. Der in Austin ansässige Bajwa war zuvor als VP of Product Strategy und VP of Global Sales Engineering bei Beyond Identity tätig und davor sieben Jahre als Distinguished Engineer bei Aruba Networks. Er bekleidete außerdem Führungspositionen bei Ericsson und BelAir Networks und ist Mitgründer von CardioAssure. Seine Karriere vereint fundiertes technisches Fachwissen mit umfassender Produktführung in den Bereichen Telekommunikation, Sicherheit und digitale Infrastruktur.
SEON ist eine Plattform zur Betrugsprävention und Geldwäschebekämpfung, die Unternehmen dabei unterstützt, digitalen Betrug entlang des gesamten Kundenlebenszyklus zu erkennen und zu stoppen. Die Technologie des Unternehmens analysiert Hunderte von Datensignalen – darunter E-Mails, Geräte-, IP- und Verhaltensmuster –, um verdächtige Aktivitäten in Echtzeit zu identifizieren. Die Plattform kombiniert maschinelles Lernen zur Risikobewertung mit anpassbaren Regeln, um Organisationen in Branchen wie Fintech, E-Commerce und Online-Gaming dabei zu helfen, Betrug zu reduzieren, Compliance-Prozesse zu automatisieren und legitime Nutzer zu schützen.
Wie hat sich der Einsatz von zugänglicher generativer KI in den letzten 12 Monaten auf Betrugsmaschen im Bereich Romantik und Dating-Apps ausgewirkt?
Generative KI hat Betrugsmaschen erheblich begünstigt. Sie hat die Einstiegshürde für raffinierten Liebesbetrug drastisch gesenkt und Angreifern Zugang zu denselben leistungsstarken Werkzeugen verschafft, die auch seriöse Unternehmen nutzen.
Gemäß SEON-Bericht über führende Experten im Bereich Betrugsbekämpfung und Geldwäscheprävention 202698 % der Unternehmen nutzen KI mittlerweile in ihren Prozessen zur Betrugsbekämpfung und Compliance-Prüfung. Dasselbe gilt für Kriminelle. KI ist nicht länger experimentell, sondern Standard. Was früher Geduld, soziale Kompetenz und Sprachkenntnisse erforderte, lässt sich heute automatisieren.
Betrüger erstellen vollständig synthetische Identitäten von Grund auf, inklusive alter E-Mail-Konten, glaubwürdigen Fotos, plausiblen Lebensgeschichten und unterstützenden digitalen Signalen. Jedes einzelne Signal mag für sich genommen legitim erscheinen, doch zusammen ergeben sie eine Identität, die gezielt zur Täuschung geschaffen wurde.
Sprache ist kein verlässlicher Indikator mehr, da KI Grammatikfehler und tonale Inkonsistenzen eliminiert. Sie ermöglicht emotional stimmige Gespräche, die sich dynamisch an die Reaktionen des Gegenübers anpassen. Ein einzelner Schauspieler kann nun Hunderte von Rollen gleichzeitig spielen.
Das Ergebnis ist Betrug, der von Anfang bis Ende legitim erscheint. Liebesbetrug hat sich von Einzeltätern zu koordinierten, KI-gestützten Operationen entwickelt, die kontinuierlich und in Maschinengeschwindigkeit ablaufen.
Welche drei subtilen Warnsignale weisen KI-generierte Profile auf?
Das erste Warnsignal ist das, was ich als Ungleichgewicht im digitalen Fußabdruck bezeichnen würde. Das Profil ist zwar umfangreich und detailliert, doch die langfristigen digitalen Spuren spiegeln diese Tiefe nicht wider. KI kann zwar sofort Geschichten generieren, hat aber Schwierigkeiten, jahrelange, konsistente Verhaltensmuster über verschiedene Kanäle hinweg zu reproduzieren.
Das zweite Warnsignal zeigt sich, wenn man die Ansicht vergrößert und Gruppen von Konten betrachtet. Einzeln betrachtet wirken die Konten überzeugend. Betrachtet man sie jedoch gemeinsam, treten statistische Ähnlichkeiten zutage, wie beispielsweise übereinstimmende Geräte-Fingerabdrücke, ähnliche Registrierungszeitpunkte und Überschneidungen in der Infrastruktur. Betrug versteckt sich zunehmend in Musterähnlichkeiten anstatt in offensichtlichen Fehlern.
Drittens gibt es verdächtig perfektes Verhalten. Menschliches Handeln beinhaltet Zufälligkeiten. Menschen loggen sich unregelmäßig ein, ändern ihren Tonfall mitten im Gespräch und verhalten sich unvorhersehbar. KI-generierte Profile weisen oft mechanische Präzision auf, wie etwa gleichmäßiges Nachrichtentempo, optimierte Benutzernamen und kontrollierte Aktivitätsintensität. Die Erkennung basiert heute weniger auf dem Aufspüren von Nachlässigkeiten, sondern vielmehr auf der Identifizierung von Verhalten, das zu konsistent ist, um natürlich zu sein.
Welche Signale sollten Plattformen neben der Identitätsprüfung überwachen?
Eine statische, einmalige Verifizierung bei der Anmeldung reicht nicht mehr aus. Betrüger bestehen routinemäßig die grundlegenden Prüfungen und können dann ungehindert agieren.
Moderner Schutz erfordert eine kontinuierliche, adaptive Verifizierung, die auf auftretende Risiken reagiert. Das bedeutet die Analyse der digitalen Spuren, der Geräteintelligenz und der Verhaltenstelemetrie in Echtzeit, sowohl vor als auch während der Nutzerinteraktion.
Technische Signale wie persistentes Geräte-Fingerprinting, Proxy-Erkennung, Infrastruktur-Wiederverwendung und Automatisierungsmarker sind entscheidend. Ebenso wichtig sind jedoch Verhaltenssignale: Gesprächstempo, rascher Vertrauensaufbau, Versuche, Interaktionen auf andere Plattformen zu verlagern, und kontoübergreifende Nachrichtenmuster.
Ziel ist eine kontextbezogene Entscheidungsfindung, insbesondere bevor emotionale Bindungen entstehen. Anstatt zu fragen: „Existiert diese Identität?“, müssen Plattformen fragen: „Verhält sich diese Entität im Laufe der Zeit wie ein legitimer Mensch?“
Welche Herausforderungen stellt KI-gesteuerter Betrug für traditionelle Teams dar und wie sieht eine Echtzeit-Betrugsabwehr aus?
KI-gestützter Betrug ist skalierbar, adaptiv und kontinuierlich. Er verkürzt Angriffszyklen und überfordert die Kapazität manueller Überprüfungen. Die Taktiken entwickeln sich während des Angriffs weiter, wodurch statische Regelsätze obsolet werden.
Herkömmliche Moderationsmodelle sind reaktiv. Sie prüfen Fälle erst, nachdem Schaden entstanden ist. Wenn Ihre Vorgehensweise jedoch keine Echtzeit-Entscheidungsfindung integriert hat, agieren Sie erst in der Defensive, nachdem der Schaden bereits angerichtet wurde.
Echtzeit-Risikominderung bedeutet, Risiken innerhalb von Sekundenbruchteilen bei der Registrierung und der ersten Interaktion zu bewerten. Es bedeutet, mithilfe von Graphanalyse koordinierte Netzwerke aufzudecken, anstatt Konten isoliert zu betrachten. Es bedeutet die automatische Unterdrückung von Hochrisiko-Clustern, bevor Messaging-Berechtigungen erteilt werden.
Betrug nimmt gleichzeitig zu und spezialisiert sich. Das Schlachtfeld hat sich von offensichtlichem Missbrauch hin zu präziser Identitätsmanipulation verlagert. Die Verteidigung muss von reaktiver Moderation zu proaktiver Steuerung übergehen.
Was ist der größte Irrtum der Nutzer?
Viele Nutzer gehen davon aus, dass ein Profil, wenn es existiert, gründlich verifiziert wurde. Sie setzen Langlebigkeit mit Legitimität und authentisch wirkende Fotos mit Authentizität gleich.
Tatsächlich ist die Verifizierung mehrstufig und probabilistisch. Plattformen reduzieren zwar das Risiko, können aber die Authentizität nicht jederzeit garantieren. Das Bestehen einer Prüfung in einem Moment bedeutet nicht, dass die Legitimität dauerhaft gegeben ist.
Sicherheit wird durch Risikomanagement gewährleistet, nicht garantiert. Das Vorhandensein eines Profils bedeutet, dass ein Konto bestimmte Schwellenwerte erfüllt, nicht aber, dass es auf unbestimmte Zeit eine vollständig authentifizierte menschliche Identität darstellt.
Welche einzelne Produktfunktionalität würde die Hürde für Betrüger am meisten erhöhen?
Die wirkungsvollste Funktion wäre ein in den Onboarding-Prozess integriertes Echtzeit-Betrugspräventionszentrum, das das Risiko auf Entitätsebene über Geräte-, E-Mail-, Telefon- und Netzwerksignale hinweg bewerten kann, bevor die Kommunikation beginnt. Es kann Muster auf Clusterebene frühzeitig erkennen, nicht erst, nachdem Opfer einen Schaden gemeldet haben. Anstelle einer pauschalen Überprüfung kann es progressive, kontextbezogene Sicherheitsmaßnahmen anwenden.
Der wirksamste Schutz erfolgt vor dem Absenden der ersten Nachricht. Sobald eine emotionale Beteiligung einsetzt, steigt der Abwehraufwand deutlich an.
Wie können Plattformen Betrugserkennung und Benutzerfreundlichkeit in Einklang bringen?
Der vermeintliche Zielkonflikt zwischen reibungsloser Bedienung und Sicherheit ist auf ein schlechtes Systemdesign zurückzuführen, nicht auf ein unumstößliches Gesetz.
Intelligente Betrugsprävention nutzt dynamische Reibungsmechanismen und intensiviert die Überprüfung nur dann, wenn Verhaltens- oder technische Signale dies rechtfertigen. Nutzer mit geringem Risiko können sich nahtlos bewegen. Erhöhtes Risiko löst eine eingehendere Prüfung aus.
Wenn Plattformen Sicherheit und Konversion gemeinsam messen, verbessert Betrugsprävention die Nutzererfahrung. Das frühzeitige Entfernen von Betrügern stärkt das Vertrauen und reduziert die emotionalen und finanziellen Folgen, die zur Nutzerabwanderung führen.
Präzision ersetzt flächige Reibung.
Welche Rolle sollten externe Betrugspräventionsplattformen spielen?
Keine einzelne Dating-Plattform hat den vollen Überblick über die Bedrohungen. Betrügernetzwerke operieren branchen-, plattform- und länderübergreifend.
Laut einem Bericht von SEON planen 85 % der Unternehmen, im Jahr 2026 einen neuen Anbieter für Betrugsprävention einzuführen oder einen neuen zu beauftragen. Dies zeigt, dass Führungskräfte den Bedarf an fundierteren und besser integrierten Informationen erkennen.
Externe Betrugspräventionsplattformen bieten branchenübergreifende Signalanreicherung und umfassendere Mustererkennung. Sie erkennen die Wiederverwendung von Infrastruktur, neuartige KI-Taktiken und koordinierte Netzwerke, die innerhalb eines einzelnen Ökosystems möglicherweise nicht sichtbar sind.
Betrugsaufklärung wird effektiver, wenn die Transparenz steigt. Da KI Angreifern die Möglichkeit gibt, sich in großem Umfang zu koordinieren, muss die Verteidigung ebenso vernetzt und anpassungsfähig werden.
Welche neuen KI-Funktionen werden Betrüger in 12 bis 18 Monaten nutzen?
Wir treten in eine Ära der adversariellen KI ein, also von Systemen, die speziell dafür entwickelt wurden, andere KI-Systeme zu täuschen.
Der Bericht von SEON stellt fest, dass 25 % der Führungskräfte den zunehmenden Einsatz von KI und Verschleierungstechniken durch Kriminelle als eine der größten externen Bedrohungen ansehen. Diese Sorge ist durchaus berechtigt.
Wir müssen mit vermehrten Versuchen rechnen, mithilfe von Deepfakes Live-Profile zu umgehen, mit Echtzeit-Stimmklonen zur Eskalation außerhalb der Plattform und mit KI-gestützter Verhaltensnachahmung, die auf Basis legitimer Nutzerdaten trainiert wird. Betrüger werden ihre Profile möglicherweise zunehmend „altern“ lassen, um eine lange Vorgeschichte zu simulieren und so schrittweise Vertrauen aufzubauen, bevor sie diese aktivieren.
Die entscheidende Herausforderung wird darin bestehen, Menschlichkeit durch differenzierte Verhaltens-, biometrische und umweltbezogene Signale anstatt durch statische Nachweise zu beweisen.
Welchen Rat würden Sie Nutzern geben, die einen KI-gestützten Betrüger vermuten?
Die Interaktion verlangsamen. KI-gestützte Betrugsmaschen setzen auf emotionale Beschleunigung und Dringlichkeit.
Seien Sie skeptisch gegenüber schnelllebigen Beziehungen, insbesondere wenn finanzielle Schwierigkeiten vorgegaukelt werden. Überweisen Sie niemals Geld außerhalb der Plattform. Bitten Sie um ungeskriptete Video-Interaktionen in Echtzeit und überprüfen Sie Bilder selbstständig durch umgekehrte Suchen.
Wenn Ihnen etwas verdächtig vorkommt, melden Sie es sofort. Durch frühzeitige Meldungen können Plattformen Cluster erkennen und koordinierte Netzwerke auflösen, bevor weitere Nutzer Schaden erleiden.
Romantik sollte sich natürlich anfühlen. Wenn sich ein Verhalten einstudiert anfühlt, ist es das oft auch.
Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen SEON.












