Contáctenos

Husnain Bajwa, vicepresidente sénior de producto en SEON – Serie de entrevistas

Entrevistas

Husnain Bajwa, vicepresidente sénior de producto en SEON – Serie de entrevistas

mm

Husnain BajwaBajwa, vicepresidente sénior de producto en SEON, lidera la estrategia de producto para las soluciones de prevención de riesgos y fraude de la compañía, aportando más de dos décadas de experiencia en redes, ciberseguridad y tecnología empresarial. Con sede en Austin, anteriormente fue vicepresidente de estrategia de producto y vicepresidente de ingeniería de ventas globales en Beyond Identity, y antes trabajó durante siete años como ingeniero distinguido en Aruba Networks. Bajwa también ha ocupado puestos de liderazgo en Ericsson y BelAir Networks, y es cofundador de CardioAssure. Su trayectoria profesional combina una profunda experiencia técnica con el liderazgo de productos en telecomunicaciones, seguridad e infraestructura digital.

SEON Es una plataforma de prevención de fraude y lucha contra el blanqueo de capitales que ayuda a las empresas a detectar y detener el fraude digital a lo largo de todo el ciclo de vida del cliente. La tecnología de la compañía analiza cientos de señales de datos —incluidos correo electrónico, dispositivo, IP y patrones de comportamiento— para identificar actividades sospechosas en tiempo real. Su plataforma combina la puntuación de riesgo mediante aprendizaje automático con reglas personalizables para ayudar a las organizaciones a reducir el fraude, automatizar los procesos de cumplimiento y proteger a los usuarios legítimos en sectores como las fintech, el comercio electrónico y los juegos en línea.

¿Cómo ha cambiado la IA generativa accesible las estafas en las aplicaciones de citas y romance en los últimos 12 meses?

La IA generativa se ha convertido en un multiplicador de fuerza para el fraude. Ha reducido drásticamente las barreras de entrada para el fraude romántico sofisticado, brindando a los atacantes acceso a las mismas herramientas de alta potencia que utilizan las empresas legítimas.

Según Informe de SEON sobre los líderes en fraude y lucha contra el blanqueo de capitales de 2026Actualmente, el 98 % de las organizaciones utilizan IA en sus procesos de prevención de fraude y cumplimiento normativo. Lo mismo ocurre con los delincuentes. La IA ya no es experimental; es una práctica habitual. Lo que antes requería paciencia, habilidades de ingeniería social y dominio de idiomas, ahora se puede automatizar.

Los estafadores crean identidades totalmente sintéticas desde cero, con cuentas de correo electrónico antiguas, fotos creíbles, relatos de vida verosímiles y señales digitales que las respaldan. Cada señal puede parecer legítima por separado, pero en conjunto forman una identidad diseñada específicamente para el engaño.

El lenguaje ya no es un indicador fiable, pues la IA elimina los errores gramaticales y las inconsistencias tonales. Permite conversaciones emocionalmente coherentes que se adaptan dinámicamente a las respuestas de la víctima. Un solo actor puede ahora gestionar cientos de personajes simultáneamente.

El resultado es un fraude que parece legítimo de principio a fin. Las estafas románticas han pasado de ser perpetradas por individuos aislados a operaciones coordinadas, asistidas por inteligencia artificial, que funcionan continuamente a velocidad de máquina.

¿Cuáles son tres señales de alerta sutiles que presentan los perfiles generados por IA?

La primera señal de alerta es lo que yo llamaría un desequilibrio en la huella digital. El perfil es rico y detallado, pero el rastro digital a largo plazo no refleja esa profundidad. La IA puede generar narrativas al instante, pero le cuesta replicar años de historial de comportamiento consistente en múltiples canales.

La segunda señal de alerta aparece al observar grupos de cuentas. Individualmente, las cuentas parecen convincentes. Pero al analizarlas en conjunto, surgen similitudes estadísticas, como huellas digitales de dispositivos compartidas, fechas de registro similares y superposición de infraestructuras. El fraude se oculta cada vez más en patrones similares en lugar de errores evidentes.

En tercer lugar, está el comportamiento sospechosamente perfecto. La actividad humana contiene aleatoriedad. Las personas se conectan de forma irregular, cambian de tono a mitad de una conversación y se comportan de manera impredecible. Los perfiles generados por IA suelen introducir precisión mecánica, como mensajes con un ritmo uniforme, nombres de usuario optimizados y una profundidad de actividad controlada. La detección actual depende menos de identificar errores sutiles y más de detectar comportamientos demasiado consistentes para ser orgánicos.

Más allá de la verificación de identidad, ¿qué señales deberían monitorizar las plataformas?

La verificación estática y única al registrarse ya no es suficiente. Los estafadores suelen eludir las comprobaciones básicas y luego operan sin control.

La protección moderna requiere una verificación continua y adaptativa que responda al riesgo a medida que surge. Esto implica analizar la profundidad de la huella digital, la inteligencia del dispositivo y la telemetría del comportamiento en tiempo real, tanto antes como durante la interacción del usuario.

Las señales técnicas, como la identificación persistente de dispositivos, la detección de proxies, la reutilización de la infraestructura y los indicadores de automatización, son fundamentales. Pero las señales de comportamiento son igualmente importantes: el ritmo de las conversaciones, la rápida aceleración de la confianza, los intentos de trasladar las interacciones fuera de la plataforma y los patrones de mensajería entre cuentas.

El objetivo es tomar decisiones teniendo en cuenta el contexto, especialmente antes de que se produzca una inversión emocional. En lugar de preguntar "¿Existe esta identidad?", las plataformas deben preguntarse "¿Se comporta esta entidad como un ser humano legítimo a lo largo del tiempo?".

¿Cómo supone el fraude impulsado por la IA un desafío para los equipos tradicionales y cómo se manifiesta la mitigación en tiempo real?

El fraude impulsado por IA es escalable, adaptable y continuo. Reduce los ciclos de ataque y supera la capacidad de revisión manual. Las tácticas evolucionan durante el proceso, lo que hace obsoletos los conjuntos de reglas estáticas.

Los modelos de moderación tradicionales son reactivos. Revisan los casos después de que el daño ya se ha producido. Pero si no incorporas la toma de decisiones en tiempo real en tu sistema, estarás actuando a la defensiva una vez que el daño ya está hecho.

La mitigación en tiempo real implica evaluar el riesgo en fracciones de segundo durante el proceso de incorporación y la primera interacción. Significa utilizar análisis basados ​​en grafos para descubrir redes coordinadas en lugar de evaluar las cuentas de forma aislada. Significa la supresión automatizada de grupos de alto riesgo antes de otorgar privilegios de mensajería.

El fraude está aumentando y especializándose simultáneamente. El campo de batalla ha pasado del abuso evidente a la manipulación precisa de la identidad. La defensa debe evolucionar de la moderación reactiva a la orquestación en tiempo real.

¿Cuál es la mayor idea errónea que tienen los usuarios?

Muchos usuarios dan por sentado que si un perfil existe, ha sido verificado exhaustivamente. Equiparan la antigüedad con la legitimidad y las fotos de aspecto auténtico con la autenticidad.

En realidad, la verificación es un proceso gradual y probabilístico. Las plataformas reducen el riesgo, pero no pueden garantizar la autenticidad en todo momento. Superar una verificación en un momento dado no implica una legitimidad continua.

La seguridad se gestiona en función del riesgo, no se garantiza. La existencia de un perfil significa que una cuenta cumple ciertos requisitos, no que represente una identidad humana totalmente autenticada de forma indefinida.

¿Qué característica específica del producto supondría el mayor obstáculo para los estafadores?

La capacidad más impactante sería un centro de mando antifraude en tiempo real integrado directamente en el proceso de incorporación, capaz de evaluar el riesgo a nivel de entidad en dispositivos, correo electrónico, teléfono y señales de red antes de que comience la comunicación. Puede detectar patrones a nivel de clúster de forma temprana, no después de que las víctimas reporten daños. Puede aplicar medidas de seguridad progresivas y contextuales en lugar de una verificación generalizada.

La protección más eficaz se produce antes de que se envíe el primer mensaje. Una vez que comienza la implicación emocional, la carga defensiva aumenta significativamente.

¿Cómo pueden las plataformas equilibrar la detección de fraudes y la experiencia del usuario?

La supuesta disyuntiva entre fluidez y seguridad se debe a un mal diseño del sistema, no a una ley inmutable.

La prevención inteligente del fraude aplica una fricción dinámica, intensificando la verificación solo cuando las señales de comportamiento o técnicas lo justifican. Los usuarios de bajo riesgo pasan sin problemas. Un riesgo elevado activa un escrutinio más exhaustivo.

Cuando las plataformas miden la seguridad y la conversión de forma conjunta, la prevención del fraude mejora la experiencia del usuario. Eliminar a los usuarios malintencionados a tiempo aumenta la confianza y reduce las consecuencias emocionales y financieras que provocan la pérdida de usuarios.

La precisión sustituye a la fricción generalizada.

¿Qué papel deberían desempeñar las plataformas externas de prevención del fraude?

Ninguna plataforma de citas por sí sola comprende la totalidad del panorama de amenazas. Las redes fraudulentas operan en diversos sectores, plataformas y regiones geográficas.

Según el informe de SEON, el 85 % de las organizaciones planea incorporar o reemplazar a un proveedor de soluciones antifraude en 2026. Esto demuestra que los líderes reconocen la necesidad de contar con una inteligencia más sólida e integrada.

Las plataformas externas de prevención de fraude proporcionan enriquecimiento de señales intersectoriales y un reconocimiento de patrones más amplio. Detectan la reutilización de infraestructuras, tácticas emergentes de IA maliciosa y redes coordinadas que podrían pasar desapercibidas dentro de un mismo ecosistema.

La inteligencia para detectar fraudes se fortalece cuando aumenta la visibilidad. A medida que la IA permite a los atacantes coordinarse a gran escala, la defensa debe volverse igualmente interconectada y adaptable.

¿Qué nuevas capacidades de IA aprovecharán los estafadores en los próximos 12 a 18 meses?

Estamos entrando en una era de IA adversaria, es decir, sistemas diseñados específicamente para engañar a otros sistemas de IA.

El informe de SEON señala que el 25 % de los líderes ahora citan el uso cada vez mayor de IA y técnicas de ofuscación por parte de los delincuentes como una de las principales amenazas externas. Esta preocupación está bien fundada.

Podemos prever más intentos de falsificación mediante deepfake, clonación de voz en tiempo real para escalar problemas fuera de la plataforma y simulación de comportamiento mediante IA entrenada con datos de usuarios legítimos. Los estafadores podrían ir "envejeciendo" cada vez más las identidades falsas con el tiempo para simular un historial a largo plazo y generar confianza gradualmente antes de activarlas.

El desafío fundamental consistirá en demostrar la humanidad a través de señales conductuales, biométricas y ambientales sutiles, en lugar de credenciales estáticas.

¿Qué consejos darías a los usuarios que sospechan que un estafador utiliza inteligencia artificial?

Ralentiza la interacción. Las estafas asistidas por IA se basan en la aceleración emocional y la urgencia.

Desconfía de las relaciones que avanzan demasiado rápido, sobre todo si surgen rumores de dificultades económicas. Nunca envíes dinero fuera de la plataforma. Solicita videollamadas espontáneas y en tiempo real, y verifica las imágenes de forma independiente mediante búsquedas inversas.

Si algo te parece sospechoso, repórtalo de inmediato. Los informes tempranos permiten a las plataformas detectar grupos de usuarios y desmantelar redes coordinadas antes de que más usuarios resulten perjudicados.

El romance debe sentirse natural. Cuando un comportamiento parece forzado, a menudo lo es.

Gracias por la gran entrevista, los lectores que deseen obtener más información deben visitar SEON.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Es un emprendedor en serie y cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablar maravillas sobre el potencial de las tecnologías disruptivas y la IA general.

Como titular de futurista, se dedica a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Valores.io, una plataforma centrada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y transformando sectores enteros.