Connect with us

Líderes de opinión

¿Resolverán LLM y la Inteligencia Artificial Generativa un Problema de 20 Años en Seguridad de Aplicaciones!

mm

En el panorama en constante evolución de la ciberseguridad, mantenerse un paso por delante de los actores maliciosos es un desafío constante. Durante las últimas dos décadas, el problema de la seguridad de las aplicaciones ha persistido, con los métodos tradicionales a menudo cayendo cortos en la detección y mitigación de las amenazas emergentes. Sin embargo, una tecnología prometedora y nueva, la Inteligencia Artificial Generativa (GenAI), está a punto de revolucionar el campo. En este artículo, exploraremos cómo la Inteligencia Artificial Generativa es relevante para la seguridad, por qué aborda desafíos de larga data que los enfoques anteriores no pudieron resolver, las posibles interrupciones que puede traer al ecosistema de seguridad y cómo difiere de los modelos de Aprendizaje Automático (ML) más antiguos.

Por Qué el Problema Requiere Nueva Tecnología

El problema de la seguridad de las aplicaciones es multifacético y complejo. Las medidas de seguridad tradicionales han dependido principalmente del emparejamiento de patrones, la detección basada en firmas y los enfoques basados en reglas. Si bien son efectivos en casos simples, estos métodos luchan por abordar las formas creativas en que los desarrolladores escriben código y configuran sistemas. Los adversarios modernos constantemente evolucionan sus técnicas de ataque, amplían la superficie de ataque y hacen que el emparejamiento de patrones sea insuficiente para salvaguardar contra los riesgos emergentes. Esto requiere un cambio de paradigma en los enfoques de seguridad, y la Inteligencia Artificial Generativa tiene una posible clave para abordar estos desafíos.

La Magia de LLM en Seguridad

La Inteligencia Artificial Generativa es una avanzada sobre los modelos más antiguos utilizados en algoritmos de aprendizaje automático que eran excelentes para clasificar o agrupar datos en función del aprendizaje sintético entrenado. Los LLM modernos se entrenan con millones de ejemplos de grandes repositorios de código (por ejemplo, GitHub) que están parcialmente etiquetados para problemas de seguridad. Al aprender de vastas cantidades de datos, los modelos LLM modernos pueden entender los patrones subyacentes, estructuras y relaciones dentro del código de la aplicación y el entorno, lo que les permite identificar posibles vulnerabilidades y predecir vectores de ataque dados los insumos y la preparación adecuados.

Otro gran avance es la capacidad de generar muestras de soluciones realistas que pueden ayudar a los desarrolladores a entender la causa raíz y resolver problemas más rápido, especialmente en organizaciones complejas donde los profesionales de la seguridad están aislados organizacionalmente y sobrecargados.

Interrupciones Venideras Habilitadas por GenAI

La Inteligencia Artificial Generativa tiene el potencial de interrumpir el ecosistema de seguridad de las aplicaciones de varias maneras:

Detección Automatizada de Vulnerabilidades: Las herramientas tradicionales de escaneo de vulnerabilidades a menudo dependen de la definición manual de reglas o del emparejamiento de patrones limitado. La Inteligencia Artificial Generativa puede automatizar el proceso aprendiendo de extensos repositorios de código y generando muestras sintéticas para identificar vulnerabilidades, reduciendo el tiempo y el esfuerzo necesarios para el análisis manual.

Simulación de Ataques Adversarios: Las pruebas de seguridad suelen involucrar la simulación de ataques para identificar puntos débiles en una aplicación. La Inteligencia Artificial Generativa puede generar escenarios de ataque realistas, incluidos ataques sofisticados y multietapa, lo que permite a las organizaciones fortalecer sus defensas contra amenazas del mundo real. Un gran ejemplo es “BurpGPT”, una combinación de GPT y Burp, que ayuda a detectar problemas de seguridad dinámicos.

Generación Inteligente de Parches: Generar parches efectivos para vulnerabilidades es una tarea compleja. La Inteligencia Artificial Generativa puede analizar bases de código existentes y generar parches que abordan vulnerabilidades específicas, ahorrando tiempo y minimizando el error humano en el proceso de desarrollo de parches.

Si bien este tipo de soluciones fueron tradicionalmente rechazadas por la industria, la combinación de soluciones de código automatizadas y la capacidad de generar pruebas mediante GenAI podría ser una excelente manera para que la industria empuje los límites a nuevos niveles.

Inteligencia de Amenazas Mejorada: La Inteligencia Artificial Generativa puede analizar grandes volúmenes de datos relacionados con la seguridad, incluidos informes de vulnerabilidades, patrones de ataque y muestras de malware. GenAI puede mejorar significativamente las capacidades de inteligencia de amenazas generando información y identificando tendencias emergentes desde una indicación inicial hasta un libro de juego real y acciónnable, lo que permite estrategias de defensa proactivas.

El Futuro de LLM y Seguridad de Aplicaciones

Los LLM todavía tienen brechas para lograr una seguridad de aplicaciones perfecta debido a su comprensión contextual limitada, la cobertura de código incompleta, la falta de evaluación en tiempo real y la ausencia de conocimiento específico del dominio. Para abordar estas brechas en los próximos años, una solución probable tendrá que combinar enfoques de LLM con herramientas de seguridad dedicadas, fuentes de enriquecimiento externas y escáneres. Los avances continuos en IA y seguridad ayudarán a cerrar estas brechas.

En general, si tienes un conjunto de datos más grande, puedes crear un LLM más preciso. Esto es lo mismo para el código, así que cuando tengamos más código en el mismo lenguaje, podremos usarlo para crear mejores LLM, lo que a su vez impulsará una mejor generación de código y seguridad en el futuro.

Anticipamos que en los próximos años, presenciaremos avances en la tecnología LLM, incluida la capacidad de utilizar tamaños de token más grandes, lo que tiene un gran potencial para mejorar aún más la ciberseguridad basada en IA de manera significativa.

Neatsun Ziv es el CEO y cofundador de OX Security, la primera solución de seguridad de cadena de suministro de software de extremo a extremo para DevSecOps. Antes de fundar OX, fue el VP de Seguridad Cibernética en Check Point, donde supervisó todas las iniciativas cibernéticas. Su equipo fue uno de los primeros en responder a SolarWinds, NotPetya y otros ataques importantes, trabajando en estrecha colaboración con Interpol, CERT local y otras agencias de aplicación de la ley.