Entrevistas
Steve Wilson, director de inteligencia artificial y productos de Exabeam – Serie de entrevistas

Steve Wilson es el Director de IA y Producto de Exabeam, donde su equipo aplica tecnologías de IA de vanguardia para abordar los desafíos reales de la ciberseguridad. Fundó y copreside el Proyecto de Seguridad de IA Gen OWASP, la organización responsable de la lista OWASP Top 10 para la Seguridad de Modelos de Lenguaje Grandes, estándar del sector.
Su libro premiado, “Manual del desarrollador para la seguridad de modelos de lenguaje grandes” (O'Reilly Media), fue seleccionado como el mejor libro de vanguardia en ciberseguridad por la revista Cyber Defense.
Exabeam Es líder en inteligencia y automatización que impulsa las operaciones de seguridad de las empresas más inteligentes del mundo. Al combinar la escalabilidad y el poder de la IA con la solidez de nuestro análisis de comportamiento y automatización líderes en la industria, las organizaciones obtienen una visión más integral de los incidentes de seguridad, detectan anomalías que otras herramientas pasan por alto y logran respuestas más rápidas, precisas y repetibles. Exabeam capacita a los equipos de seguridad globales para combatir las ciberamenazas, mitigar el riesgo y optimizar las operaciones.
Su nuevo cargo es Director de IA y Producto en Exabeam. ¿Cómo refleja esto la creciente importancia de la IA en la ciberseguridad?
La ciberseguridad fue uno de los primeros ámbitos en adoptar plenamente el aprendizaje automático. En Exabeam, llevamos más de una década utilizando el aprendizaje automático como núcleo de nuestro motor de detección para identificar comportamientos anómalos que los humanos podrían pasar por alto. Con la llegada de nuevas tecnologías de IA, como los agentes inteligentes, la IA ha pasado de ser importante a ser absolutamente crucial.
Mi función combinada como Director de IA y Director de Producto en Exabeam refleja precisamente esta evolución. En una empresa firmemente comprometida con la integración de la IA en sus productos, y en un sector como la ciberseguridad, donde el papel de la IA es cada vez más crucial, era lógico unificar la estrategia de IA y la de producto en una sola función. Esta integración garantiza nuestra alineación estratégica para ofrecer soluciones transformadoras basadas en IA a los analistas de seguridad y los equipos de operaciones que más dependen de nosotros.
Exabeam es pionera en la "IA agente" en operaciones de seguridad. ¿Podría explicar qué significa esto en la práctica y cómo se diferencia de los enfoques tradicionales de IA?
La IA Agentic representa una evolución significativa respecto a los enfoques tradicionales de IA. Está orientada a la acción: inicia procesos proactivamente, analiza información y presenta información incluso antes de que los analistas la soliciten. Más allá del simple análisis de datos, la IA Agentic actúa como asesor, ofreciendo recomendaciones estratégicas en todo el SOC, guiando a los usuarios hacia las soluciones más fáciles y proporcionando orientación paso a paso para mejorar su seguridad. Además, los agentes funcionan como paquetes especializados, no como un chatbot complejo, cada uno adaptado con personalidades y conjuntos de datos específicos que se integran a la perfección en el flujo de trabajo de analistas, ingenieros y gerentes para brindar una asistencia específica y eficaz.
Con Exabeam Nova integrando múltiples agentes de IA en el flujo de trabajo del SOC, ¿cómo se ve el futuro del rol de analista de seguridad? ¿Está evolucionando, reduciéndose o especializándose?
El rol del analista de seguridad está en constante evolución. Analistas, ingenieros de seguridad y administradores de SOC están saturados de datos, alertas y casos. El verdadero cambio futuro no se trata solo de ahorrar tiempo en tareas rutinarias —aunque los agentes sin duda contribuyen en este aspecto—, sino de elevar el rol de todos al de líderes de equipo. Los analistas seguirán necesitando sólidas habilidades técnicas, pero ahora liderarán un equipo de agentes listos para agilizar sus tareas, optimizar sus decisiones e impulsar mejoras reales en la seguridad. Esta transformación posiciona a los analistas para convertirse en orquestadores estratégicos en lugar de respuestas tácticas.
Datos recientes muestran una discrepancia entre ejecutivos y analistas respecto al impacto de la IA en la productividad. ¿Por qué cree que existe esta brecha de percepción y cómo se puede abordar?
Datos recientes Muestra una clara desconexión: el 71 % de los ejecutivos cree que la IA aumenta significativamente la productividad, pero solo el 22 % de los analistas de primera línea, los usuarios diarios, está de acuerdo. En Exabeam, hemos visto crecer esta brecha junto con el reciente frenesí de promesas de IA en ciberseguridad. Nunca ha sido tan fácil crear demostraciones de IA llamativas, y los proveedores se apresuran a afirmar que han resuelto todos los desafíos del SOC. Si bien estas demostraciones deslumbran a los ejecutivos inicialmente, muchas se quedan cortas donde importa: en manos de los analistas. El potencial está ahí, y existen áreas de recompensa genuina, pero aún hay demasiado ruido y muy pocas mejoras significativas. Para cerrar esta brecha de percepción, los ejecutivos deben priorizar las herramientas de IA que realmente empoderen a los analistas, no solo impresionar en una demostración. Cuando la IA realmente mejore la efectividad de los analistas, la confianza y las mejoras reales de productividad vendrán después.
La IA está acelerando la detección y respuesta ante amenazas, pero ¿cómo mantener el equilibrio entre la automatización y el juicio humano en incidentes de ciberseguridad de alto riesgo?
Las capacidades de la IA avanzan rápidamente, pero los "modelos de lenguaje" fundamentales que sustentan a los agentes inteligentes se diseñaron originalmente para tareas como la traducción de idiomas, no para la toma de decisiones con matices, la teoría de juegos o la gestión de factores humanos complejos. Esto hace que el criterio humano sea más esencial que nunca en ciberseguridad. La IA no reduce el rol del analista, sino que lo refuerza. Los analistas ahora son líderes de equipo y aprovechan su experiencia y conocimiento para guiar y dirigir a múltiples agentes, garantizando que las decisiones se basen en el contexto y los matices. En definitiva, equilibrar la automatización con el criterio humano consiste en crear una relación simbiótica donde la IA amplifique la experiencia humana, no la reemplace.
¿Cómo evoluciona su estrategia de producto cuando la IA se convierte en un principio de diseño central en lugar de un complemento?
En Exabeam, nuestra estrategia de producto se basa fundamentalmente en la IA como principio de diseño fundamental, no como un complemento superficial. Desarrollamos Exabeam desde cero para respaldar el aprendizaje automático (desde la ingesta de registros, el análisis, el enriquecimiento y la normalización) y así alimentar un Modelo de Información Común robusto, optimizado específicamente para alimentar sistemas de aprendizaje automático. Los datos estructurados y de alta calidad no solo son importantes para los sistemas de IA, sino que son su elemento vital. Hoy en día, integramos directamente nuestros agentes inteligentes en flujos de trabajo críticos, evitando chatbots genéricos y complejos. En su lugar, nos centramos con precisión en casos de uso cruciales que ofrecen beneficios tangibles y reales a nuestros usuarios.
Con Exabeam Nova, su objetivo es pasar de la asistencia a la autonomía. ¿Cuáles son los hitos clave para alcanzar operaciones de seguridad totalmente autónomas?
La idea de operaciones de seguridad totalmente autónomas es intrigante, pero prematura. Los agentes totalmente autónomos, en cualquier ámbito, simplemente aún no son eficientes ni seguros. Si bien la toma de decisiones en IA está mejorando, no ha alcanzado la fiabilidad humana y no la alcanzará durante un tiempo. En Exabeam, nuestro enfoque no busca la autonomía total, que mi grupo en OWASP identifica como una vulnerabilidad fundamental conocida como Exceso de Agencia. Dar a los agentes más autonomía de la que se puede probar y validar de forma fiable pone las operaciones en terreno arriesgado. En cambio, nuestro objetivo son equipos de agentes inteligentes, capaces pero con una guía meticulosa, que trabajen bajo la supervisión de expertos humanos en el SOC. Esa combinación de supervisión humana y asistencia específica de agentes es el camino realista y de mayor impacto a seguir.
¿Cuáles son los mayores desafíos que ha enfrentado al integrar GenAI y el aprendizaje automático a la escala requerida para la ciberseguridad en tiempo real?
Uno de los mayores desafíos al integrar GenAI y el aprendizaje automático a gran escala para la ciberseguridad es equilibrar la velocidad y la precisión. GenAI por sí sola no puede reemplazar la enorme magnitud de lo que nuestro motor de aprendizaje automático de alta velocidad gestiona: procesar terabytes de datos continuamente. Incluso los agentes de IA más avanzados tienen una ventana de contexto extremadamente insuficiente. En cambio, nuestra fórmula consiste en usar el aprendizaje automático para destilar datos masivos en información práctica, que nuestros agentes inteligentes traducen y operacionalizan eficazmente.
Cofundó el Top 10 de OWASP para solicitudes de LLM. ¿Qué lo inspiró y cómo cree que influirá en las mejores prácticas de seguridad de la IA?
Cuando lancé el Top 10 de OWASP para Solicitudes de LLM a principios de 2023, la información estructurada sobre seguridad de LLM y GenAI era escasa, pero el interés era increíblemente alto. En cuestión de días, más de 200 voluntarios se unieron a la iniciativa, aportando diversas opiniones y experiencia para dar forma a la lista original. Desde entonces, ha sido leída más de 100,000 veces y se ha convertido en un pilar fundamental para los estándares internacionales de la industria. Hoy, la iniciativa se ha expandido al Proyecto de Seguridad GenAI de OWASP, que abarca áreas como el trabajo en equipo de IA, la protección de sistemas agénticos y la gestión de usos ofensivos de GenAI en ciberseguridad. Nuestro grupo superó recientemente los 10,000 miembros y continúa impulsando las prácticas de seguridad de la IA a nivel mundial.
Tu libro, 'Manual del desarrollador para la seguridad LLM', ganó un premio importante. ¿Cuál es la lección o principio más importante del libro que todo desarrollador de IA debería comprender al crear aplicaciones seguras?
La lección más importante de mi libro, "The Developer's Playbook for LLM Security", es simple: "un gran poder conlleva una gran responsabilidad". Si bien comprender los conceptos tradicionales de seguridad sigue siendo esencial, los desarrolladores ahora se enfrentan a un conjunto completamente nuevo de desafíos exclusivos de los LLM. Esta poderosa tecnología no es un pase libre; exige prácticas de seguridad proactivas y reflexivas. Los desarrolladores deben ampliar su perspectiva, reconociendo y abordando estas nuevas vulnerabilidades desde el principio, integrando la seguridad en cada paso del ciclo de vida de sus aplicaciones de IA.
¿Cómo cree que evolucionará la fuerza laboral de ciberseguridad en los próximos cinco años a medida que la IA agente se vuelve más común?
Actualmente nos encontramos en una carrera armamentística de IA. Los adversarios están implementando IA agresivamente para impulsar sus objetivos maliciosos, lo que hace que los profesionales de la ciberseguridad sean más cruciales que nunca. Los próximos cinco años no reducirán la fuerza laboral en ciberseguridad, sino que la elevarán. Los profesionales deben adoptar la IA, integrándola en sus equipos y flujos de trabajo. Los roles de seguridad se orientarán hacia el mando estratégico, menos centrados en el esfuerzo individual y más en orquestar una respuesta eficaz con un equipo de agentes impulsados por IA. Esta transformación permite a los profesionales de la ciberseguridad liderar con decisión y confianza en la lucha contra amenazas en constante evolución.
Gracias por la gran entrevista, los lectores que deseen obtener más información deben visitar Exabeam.












