Entrevistas
Husnain Bajwa, Vice-Presidente Sênior de Produto da SEON – Série de Entrevistas

Husnain Bajwa, Vice-Presidente Sênior de Produto da SEON, lidera a estratégia de produto para as soluções de prevenção de riscos e fraudes da empresa, trazendo mais de duas décadas de experiência em redes, cibersegurança e tecnologia empresarial. Baseado em Austin, ele atuou anteriormente como Vice-Presidente de Estratégia de Produto e Vice-Presidente de Engenharia de Vendas Globais na Beyond Identity, e antes disso passou sete anos como Engenheiro Distinto na Aruba Networks. Bajwa também ocupou cargos de liderança na Ericsson e na BelAir Networks e foi cofundador da CardioAssure. Sua carreira combina profundo conhecimento técnico com liderança de produto em telecomunicações, segurança e infraestrutura digital.
SEON é uma plataforma de prevenção de fraudes e lavagem de dinheiro que ajuda empresas a detectar e interromper fraudes digitais em todo o ciclo de vida do cliente. A tecnologia da empresa analisa centenas de sinais de dados — incluindo e-mail, dispositivo, IP e padrões comportamentais — para identificar atividades suspeitas em tempo real. Sua plataforma combina pontuação de risco por aprendizado de máquina com regras personalizáveis para ajudar organizações a reduzir fraudes, automatizar processos de conformidade e proteger usuários legítimos em setores como fintech, comércio eletrônico e jogos online.
De que forma a inteligência artificial generativa acessível mudou os golpes em aplicativos de namoro e relacionamento nos últimos 12 meses?
A inteligência artificial generativa tornou-se um multiplicador de forças para fraudes. Ela reduziu drasticamente as barreiras de entrada para golpes românticos sofisticados, dando aos atacantes acesso às mesmas ferramentas poderosas que empresas legítimas utilizam.
De acordo com as Relatório de Líderes em Fraude e AML da SEON para 202698% das organizações já utilizam IA em seus fluxos de trabalho de prevenção a fraudes e conformidade. A mesma realidade se aplica aos criminosos. A IA deixou de ser experimental e se tornou padrão. O que antes exigia paciência, habilidades em engenharia social e fluência em idiomas agora pode ser automatizado.
Os golpistas estão criando identidades totalmente sintéticas do zero, com contas de e-mail antigas, fotos convincentes, histórias de vida plausíveis e sinais digitais de apoio. Cada sinal pode parecer legítimo isoladamente, mas juntos formam uma identidade projetada explicitamente para enganar.
A linguagem deixou de ser um indicador confiável, com a IA eliminando erros gramaticais e inconsistências tonais. Ela possibilita conversas emocionalmente coerentes que se adaptam dinamicamente às respostas da vítima. Um único agente agora pode gerenciar centenas de personas simultaneamente.
O resultado é uma fraude que parece legítima do início ao fim. Os golpes românticos passaram de ações isoladas de criminosos para operações coordenadas e assistidas por inteligência artificial, executadas continuamente em velocidade de máquina.
Quais são três sinais de alerta sutis que os perfis gerados por IA apresentam?
O primeiro sinal de alerta é o que eu chamaria de desequilíbrio na pegada digital. O perfil é rico e detalhado, mas o rastro digital a longo prazo não corresponde a essa profundidade. A IA consegue gerar narrativas instantaneamente, mas tem dificuldade em replicar anos de histórico comportamental consistente em diferentes canais.
O segundo sinal de alerta surge quando você amplia o zoom e observa grupos de contas. Individualmente, as contas parecem convincentes. Mas, quando vistas coletivamente, surgem semelhanças estatísticas, como impressões digitais de dispositivos compartilhadas, horários de registro semelhantes e sobreposição de infraestrutura. A fraude se esconde cada vez mais na similaridade de padrões do que em erros óbvios.
Em terceiro lugar, temos o comportamento suspeitosamente perfeito. A atividade humana contém aleatoriedade. As pessoas acessam a internet de forma irregular, mudam o tom de voz no meio de uma conversa e se comportam de maneira imprevisível. Personas geradas por IA frequentemente introduzem uma precisão mecânica, como mensagens em ritmo constante, nomes de usuário otimizados e profundidade de atividade controlada. A detecção hoje depende menos de identificar erros grosseiros e mais de reconhecer comportamentos que são consistentes demais para serem orgânicos.
Além da verificação de identidade, que sinais as plataformas devem monitorar?
A verificação estática e única no momento do cadastro já não é suficiente. Golpistas costumam passar por verificações básicas e depois operam sem serem detectados.
A proteção moderna exige verificação contínua e adaptativa que responda aos riscos à medida que surgem. Isso significa analisar a profundidade da pegada digital, a inteligência do dispositivo e a telemetria comportamental em tempo real, tanto antes quanto durante a interação do usuário.
Sinais técnicos como a identificação persistente de dispositivos, a detecção de proxies, a reutilização de infraestrutura e os marcadores de automação são cruciais. Mas igualmente importantes são os sinais comportamentais: ritmo da conversa, aceleração rápida da confiança, tentativas de levar as interações para fora da plataforma e padrões de mensagens entre contas.
O objetivo é a tomada de decisões contextualizadas, especialmente antes que haja envolvimento emocional. Em vez de perguntar "Essa identidade existe?", as plataformas precisam perguntar: "Essa entidade está se comportando como um ser humano legítimo ao longo do tempo?"
Como os ataques de fraude impulsionados por IA desafiam as equipes tradicionais e como seria a mitigação em tempo real?
A fraude habilitada por IA é escalável, adaptável e contínua. Ela comprime os ciclos de ataque e sobrecarrega a capacidade de revisão manual. As táticas evoluem durante o engajamento, o que torna obsoletos os conjuntos de regras estáticas.
Os modelos tradicionais de moderação são reativos. Eles revisam os casos depois que o dano começa. Mas se você não tiver a tomada de decisões em tempo real integrada ao seu sistema, estará jogando na defensiva depois que o estrago já estiver feito.
A mitigação em tempo real significa avaliar o risco em frações de segundo durante o cadastro e a primeira interação. Significa usar análises baseadas em grafos para descobrir redes coordenadas, em vez de avaliar contas isoladamente. Significa suprimir automaticamente grupos de alto risco antes que os privilégios de mensagens sejam concedidos.
A fraude está aumentando e se especializando simultaneamente. O campo de batalha mudou do abuso óbvio para a manipulação precisa de identidades. A defesa precisa passar da moderação reativa para a orquestração em tempo real.
Qual é a maior ideia errada que os usuários têm?
Muitos usuários presumem que, se um perfil existe, ele foi verificado minuciosamente. Eles associam longevidade à legitimidade e fotos com aparência autêntica à autenticidade.
Na realidade, a verificação é complexa e probabilística. As plataformas reduzem o risco, mas não podem garantir a autenticidade em todos os momentos. Ser aprovado em uma verificação em um determinado momento não significa legitimidade contínua.
A segurança é gerenciada quanto aos riscos, não garantida. A existência de um perfil significa que uma conta atendeu a determinados critérios, não que represente uma identidade humana totalmente autenticada indefinidamente.
Que funcionalidade específica de um produto representaria o maior obstáculo para os golpistas?
A funcionalidade de maior impacto seria uma central de comando antifraude em tempo real, integrada diretamente ao processo de integração, capaz de avaliar o risco em nível de entidade, considerando sinais de dispositivos, e-mails, telefones e redes, antes mesmo do início do envio de mensagens. Ela pode detectar padrões em nível de cluster precocemente, e não após as vítimas relatarem o dano. Além disso, pode aplicar uma fricção progressiva e contextualizada, em vez de uma verificação indiscriminada.
A proteção mais eficaz ocorre antes do envio da primeira mensagem. Uma vez iniciado o envolvimento emocional, a carga defensiva aumenta significativamente.
Como as plataformas podem equilibrar a detecção de fraudes e a experiência do usuário?
A suposta compensação entre facilidade de uso e segurança reside em um projeto de sistema deficiente, e não em uma lei imutável.
A prevenção inteligente de fraudes aplica fricção dinâmica, intensificando a verificação apenas quando sinais comportamentais ou técnicos a justificam. Usuários de baixo risco transitam sem problemas. Riscos elevados desencadeiam uma análise mais aprofundada.
Quando as plataformas medem segurança e conversão em conjunto, a prevenção de fraudes melhora a experiência do usuário. Remover usuários mal-intencionados logo no início aumenta a confiança e reduz o impacto emocional e financeiro que leva à perda de usuários.
Precisão substitui o atrito generalizado.
Qual o papel que as plataformas externas de prevenção de fraudes devem desempenhar?
Nenhuma plataforma de encontros sozinha consegue enxergar todo o panorama de ameaças. Redes de fraude operam em diversos setores, plataformas e regiões geográficas.
Segundo o relatório da SEON, 85% das organizações planejam adicionar ou substituir um fornecedor de soluções antifraude em 2026. Isso indica que os líderes reconhecem a necessidade de uma inteligência mais robusta e integrada.
Plataformas externas de prevenção de fraudes proporcionam enriquecimento de sinais intersetoriais e um reconhecimento de padrões mais abrangente. Elas detectam a reutilização de infraestrutura, táticas emergentes de IA adversária e redes coordenadas que podem não ser visíveis dentro de um único ecossistema.
A inteligência antifraude se fortalece quando a visibilidade aumenta. À medida que a IA permite que os atacantes se coordenem em grande escala, a defesa precisa se tornar igualmente interconectada e adaptável.
Que novas capacidades de IA os golpistas irão explorar nos próximos 12 a 18 meses?
Estamos entrando na era da IA adversária, ou seja, sistemas projetados especificamente para enganar outros sistemas de IA.
O relatório da SEON observa que 25% dos líderes agora citam o uso crescente de IA e técnicas de ofuscação por criminosos como uma das principais ameaças externas. Essa preocupação é bem fundamentada.
Podemos esperar mais tentativas de burlar a verificação de autenticidade com deepfakes, clonagem de voz em tempo real para escalonamento fora da plataforma e imitação comportamental orientada por IA treinada com dados legítimos de usuários. Os fraudadores podem cada vez mais "envelhecer" personas ao longo do tempo para simular um histórico extenso e construir gradualmente a confiança antes da ativação.
O grande desafio será comprovar a humanidade por meio de sinais comportamentais, biométricos e ambientais sutis, em vez de credenciais estáticas.
Que conselho você daria aos usuários que suspeitam de um golpista que utiliza inteligência artificial?
Diminua o ritmo da interação. Golpes com auxílio de IA dependem da aceleração emocional e da urgência.
Desconfie de relacionamentos que se desenvolvem rapidamente, especialmente se surgirem relatos de dificuldades financeiras. Nunca envie dinheiro para fora da plataforma. Solicite interações em vídeo espontâneas e em tempo real e verifique as imagens de forma independente por meio de buscas reversas.
Se algo parecer suspeito, denuncie imediatamente. A denúncia antecipada permite que as plataformas detectem grupos e desmantelam redes coordenadas antes que mais usuários sejam prejudicados.
O romance deve parecer natural. Quando um comportamento parece forçado, geralmente é.
Obrigado pela ótima entrevista, os leitores que desejam saber mais devem visitar SEON.












