interviste
Husnain Bajwa, Vicepresidente Senior del reparto Prodotti di SEON – Serie di interviste

Husnain Bajwa, SVP of Product presso SEON, guida la strategia di prodotto per le soluzioni di prevenzione dei rischi e delle frodi dell'azienda, portando con sé oltre vent'anni di esperienza in networking, sicurezza informatica e tecnologie aziendali. Con sede ad Austin, in precedenza ha ricoperto il ruolo di VP of Product Strategy e VP of Global Sales Engineering presso Beyond Identity, e prima ancora ha trascorso sette anni come Distinguished Engineer presso Aruba Networks. Bajwa ha anche ricoperto ruoli di leadership presso Ericsson e BelAir Networks e ha co-fondato CardioAssure. La sua carriera combina una profonda competenza tecnica con la leadership di prodotto nei settori delle telecomunicazioni, della sicurezza e delle infrastrutture digitali.
SEO è una piattaforma per la prevenzione delle frodi e il contrasto al riciclaggio di denaro che aiuta le aziende a individuare e bloccare le frodi digitali lungo tutto il ciclo di vita del cliente. La tecnologia dell'azienda analizza centinaia di segnali di dati, tra cui email, dispositivi, indirizzi IP e modelli comportamentali, per identificare attività sospette in tempo reale. La sua piattaforma combina l'apprendimento automatico per la valutazione del rischio con regole personalizzabili per aiutare le organizzazioni a ridurre le frodi, automatizzare i processi di conformità e proteggere gli utenti legittimi in settori come il fintech, l'e-commerce e il gioco online.
In che modo l'intelligenza artificiale generativa accessibile ha cambiato le truffe nelle app di incontri e sentimentali negli ultimi 12 mesi?
L'intelligenza artificiale generativa è diventata un moltiplicatore di forza per le frodi. Ha abbassato drasticamente la barriera d'ingresso per le sofisticate truffe sentimentali, dando ai malintenzionati accesso agli stessi potenti strumenti utilizzati dalle aziende legittime.
Secondo Rapporto SEON 2026 sui leader in materia di frodi e antiriciclaggioIl 98% delle organizzazioni utilizza ormai l'intelligenza artificiale nei flussi di lavoro relativi a frodi e conformità. La stessa realtà si applica ai criminali. L'IA non è più sperimentale, ma è ormai uno standard. Ciò che un tempo richiedeva pazienza, abilità di ingegneria sociale e padronanza linguistica, ora può essere automatizzato.
I truffatori stanno creando identità completamente sintetiche da zero, complete di vecchi account email, foto credibili, storie di vita plausibili e segnali digitali a supporto. Ciascun segnale può apparire legittimo di per sé, ma insieme formano un'identità progettata esplicitamente per ingannare.
Il linguaggio non è più un indicatore affidabile, poiché l'intelligenza artificiale elimina gli errori grammaticali e le incongruenze di tono. Permette conversazioni emotivamente coerenti che si adattano dinamicamente alle risposte della vittima. Un singolo attore può ora gestire centinaia di personaggi contemporaneamente.
Il risultato è una frode che appare legittima dall'inizio alla fine. Le truffe sentimentali si sono trasformate da singoli malintenzionati a operazioni coordinate, supportate dall'intelligenza artificiale, che operano ininterrottamente alla velocità della macchina.
Quali sono tre segnali d'allarme, seppur sottili, che i profili generati dall'intelligenza artificiale presentano?
Il primo campanello d'allarme è quello che definirei uno squilibrio nell'impronta digitale. La storia del profilo è ricca e dettagliata, ma la traccia digitale a lungo termine non è altrettanto approfondita. L'intelligenza artificiale può generare narrazioni all'istante, ma fatica a replicare anni di cronologia comportamentale coerente e multicanale.
Il secondo campanello d'allarme compare quando si allarga lo zoom e si osservano gruppi di account. Singolarmente, gli account sembrano convincenti. Ma se considerati collettivamente, emergono somiglianze statistiche come impronte digitali del dispositivo condivise, tempistiche di registrazione simili e sovrapposizioni di infrastrutture. Le frodi si nascondono sempre più spesso nella somiglianza degli schemi piuttosto che in errori evidenti.
Il terzo elemento è un comportamento sospettosamente perfetto. L'attività umana contiene elementi di casualità. Le persone accedono in modo irregolare, cambiano tono a metà conversazione e si comportano in modo imprevedibile. I profili generati dall'IA spesso introducono una precisione meccanica, come messaggi a ritmo uniforme, nomi utente ottimizzati e una profondità di attività controllata. Oggi, il rilevamento dipende meno dall'individuazione di errori grossolani e più dall'identificazione di comportamenti troppo coerenti per essere spontanei.
Oltre alla verifica dell'identità, quali altri segnali dovrebbero monitorare le piattaforme?
La verifica statica e una tantum al momento dell'iscrizione non è più sufficiente. I truffatori superano regolarmente i controlli di base e poi operano indisturbati.
La protezione moderna richiede una verifica continua e adattiva che risponda al rischio man mano che emerge. Ciò significa analizzare in tempo reale la profondità dell'impronta digitale, l'intelligenza del dispositivo e la telemetria comportamentale, sia prima che durante l'interazione dell'utente.
Segnali tecnici come il fingerprinting persistente del dispositivo, il rilevamento di proxy, il riutilizzo dell'infrastruttura e i marcatori di automazione sono fondamentali. Ma altrettanto importanti sono i segnali comportamentali: il ritmo della conversazione, la rapida accelerazione della fiducia, i tentativi di spostare le interazioni al di fuori della piattaforma e gli schemi di messaggistica tra account diversi.
L'obiettivo è prendere decisioni consapevoli del contesto, soprattutto prima che si verifichi un coinvolgimento emotivo. Invece di chiedersi "Questa identità esiste?", le piattaforme devono chiedersi "Questa entità si comporta nel tempo come un essere umano legittimo?".
In che modo le frodi basate sull'intelligenza artificiale rappresentano una sfida per i team tradizionali e quali sono le strategie di mitigazione in tempo reale?
Le frodi basate sull'intelligenza artificiale sono scalabili, adattive e continue. Riducono i cicli di attacco e sovraccaricano la capacità di revisione manuale. Le tattiche si evolvono nel corso dell'azione, rendendo obsoleti i set di regole statici.
I modelli di moderazione tradizionali sono reattivi. Esaminano i casi dopo che si è verificato il danno. Ma se il sistema non prevede un processo decisionale in tempo reale, ci si ritrova a difendersi dopo che il danno è stato fatto.
La mitigazione in tempo reale significa valutare il rischio in frazioni di secondo, sia al momento dell'iscrizione che alla prima interazione. Significa utilizzare l'analisi basata sui grafi per individuare reti coordinate, anziché valutare gli account singolarmente. Significa sopprimere automaticamente i cluster ad alto rischio prima che vengano concessi i privilegi di messaggistica.
Le frodi sono in aumento e si stanno specializzando contemporaneamente. Il campo di battaglia si è spostato dagli abusi evidenti alla manipolazione precisa dell'identità. La difesa deve passare da una moderazione reattiva a un'orchestrazione in tempo reale.
Qual è il più grande equivoco tra gli utenti?
Molti utenti presumono che, se un profilo esiste, sia stato verificato a fondo. Equiparano la longevità alla legittimità e le foto dall'aspetto autentico all'autenticità.
In realtà, la verifica è un processo a più livelli e probabilistico. Le piattaforme riducono il rischio, ma non possono garantire l'autenticità in ogni momento. Superare un controllo in un dato momento non significa essere legittimati in modo continuativo.
La sicurezza è gestita in base al rischio, non garantita. La presenza di un profilo significa che un account ha soddisfatto determinate soglie, non che rappresenti indefinitamente un'identità umana completamente autenticata.
Quale singola caratteristica del prodotto rappresenterebbe il maggiore ostacolo per i truffatori?
La funzionalità più efficace sarebbe un centro di comando antifrode in tempo reale integrato direttamente nel processo di onboarding, in grado di valutare il rischio a livello di entità attraverso segnali provenienti da dispositivi, e-mail, telefoni e reti, prima ancora che inizi la messaggistica. Potrebbe individuare tempestivamente schemi a livello di cluster, non dopo che le vittime hanno segnalato il danno. Potrebbe applicare un livello di controllo progressivo e contestualizzato, anziché una verifica indiscriminata.
La protezione più efficace si attiva prima ancora che venga inviato il primo messaggio. Una volta che inizia il coinvolgimento emotivo, il carico difensivo aumenta notevolmente.
Come possono le piattaforme trovare un equilibrio tra rilevamento delle frodi ed esperienza utente?
Il presunto compromesso tra fluidità e sicurezza è frutto di una cattiva progettazione del sistema, non di una legge immutabile.
I sistemi intelligenti di prevenzione delle frodi applicano un attrito dinamico, intensificando la verifica solo quando segnali comportamentali o tecnici lo giustificano. Gli utenti a basso rischio possono procedere senza intoppi. Un rischio elevato attiva un controllo più approfondito.
Quando le piattaforme misurano congiuntamente sicurezza e tasso di conversione, la prevenzione delle frodi migliora l'esperienza utente. L'eliminazione tempestiva degli utenti malintenzionati aumenta la fiducia e riduce le ripercussioni emotive e finanziarie che portano all'abbandono della piattaforma da parte degli utenti.
La precisione si concentra sull'attrito della coperta.
Che ruolo dovrebbero svolgere le piattaforme esterne di prevenzione delle frodi?
Nessuna singola piattaforma di incontri ha una visione completa del panorama delle minacce. Le reti di frode operano in diversi settori, piattaforme e aree geografiche.
Secondo il report di SEON, l'85% delle organizzazioni prevede di aggiungere o sostituire un fornitore di soluzioni antifrode entro il 2026. Ciò dimostra che i leader riconoscono la necessità di un'intelligence più solida e integrata.
Le piattaforme esterne di prevenzione delle frodi forniscono un arricchimento dei segnali intersettoriali e un riconoscimento di modelli più ampio. Rilevano il riutilizzo delle infrastrutture, le tattiche emergenti dell'IA avversaria e le reti coordinate che potrebbero non essere visibili all'interno di un singolo ecosistema.
L'intelligence sulle frodi si rafforza quando la visibilità aumenta. Poiché l'intelligenza artificiale consente agli aggressori di coordinarsi su larga scala, anche la difesa deve diventare altrettanto interconnessa e adattiva.
Quali nuove capacità di intelligenza artificiale sfrutteranno i truffatori nei prossimi 12-18 mesi?
Ci stiamo addentrando nell'era dell'intelligenza artificiale avversaria, ovvero di sistemi progettati specificamente per ingannare altri sistemi di intelligenza artificiale.
Il rapporto di SEON rileva che il 25% dei leader ora cita il crescente utilizzo da parte dei criminali dell'intelligenza artificiale e delle tecniche di offuscamento come una delle principali minacce esterne. Tale preoccupazione è ben fondata.
Possiamo aspettarci un aumento dei tentativi di aggirare le tecniche di liveness deepfake, la clonazione vocale in tempo reale per l'escalation al di fuori delle piattaforme e l'imitazione comportamentale basata sull'intelligenza artificiale e addestrata su dati di utenti legittimi. I truffatori potrebbero "invecchiare" sempre più le identità nel tempo per simulare una lunga storia e costruire gradualmente la fiducia prima dell'attivazione.
La sfida decisiva sarà dimostrare l'umanità attraverso segnali comportamentali, biometrici e ambientali sfumati, piuttosto che attraverso credenziali statiche.
Quali consigli dareste agli utenti che sospettano di essere vittime di una truffa tramite intelligenza artificiale?
Rallenta l'interazione. Le truffe assistite dall'intelligenza artificiale si basano sull'accelerazione emotiva e sul senso di urgenza.
Siate scettici nei confronti delle relazioni che si sviluppano troppo in fretta, soprattutto se si parla di difficoltà finanziarie. Non inviate mai denaro al di fuori della piattaforma. Richiedete videochiamate spontanee e in tempo reale e verificate autonomamente le immagini tramite ricerche inverse.
Se qualcosa non vi convince, segnalatelo immediatamente. Una segnalazione tempestiva permette alle piattaforme di individuare gruppi di utenti e smantellare le reti coordinate prima che altri utenti vengano danneggiati.
Il romanticismo dovrebbe essere spontaneo. Quando un comportamento appare artefatto, spesso lo è.
Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare SEO.












