Líderes del pensamiento
La próxima ola de ataques multimodales: cuando las herramientas de IA se convierten en la nueva superficie de explotación

A medida que los modelos de lenguaje grande (LLM) evolucionan hacia sistemas multimodales Que pueden gestionar texto, imágenes, voz y código, también se están convirtiendo en potentes orquestadores de herramientas y conectores externos. Con esta evolución, las organizaciones deben ser conscientes de una mayor superficie de ataque.
Un excelente ejemplo de esto es la ingeniería social, de la que los agentes pueden ser víctimas porque fueron entrenados para actuar como humanos y son aún menos escépticos. Por ejemplo, es poco probable que un agente pueda distinguir entre un correo electrónico falso y uno de un minorista legítimo.
La convergencia de la multimodalidad y el acceso a herramientas transforma la IA de asistente a medio de ataque. Los atacantes ahora pueden usar simples indicaciones de texto para provocar el uso indebido de herramientas, ejecutar acciones no autorizadas o exfiltrar datos confidenciales a través de canales legítimos. Dado que estas capacidades están diseñadas para la accesibilidad, no para la defensa, incluso adversarios poco cualificados pueden aprovechar los sistemas de IA para realizar operaciones complejas sin escribir una sola línea de código.
Cómo la IA multimodal se convierte en una cadena de explotación
Los LLM se están convirtiendo cada vez más en orquestadores de sistemas externos, con integraciones que hoy en día abarcan todo, desde API hasta correo electrónico, almacenamiento en la nube y herramientas de ejecución de código. Estos conectores suelen estar diseñados para la accesibilidad, no para la defensa.
La desventaja de esto es que puede dar lugar a una ola de nuevos exploits.
Una de ellas es el uso indebido de herramientas basadas en indicaciones. Por ejemplo, un atacante podría usar una imagen con instrucciones de inyección de indicaciones insertadas en un correo electrónico. reconocimiento óptico de caracteres (OCR) Se necesita una herramienta para extraer el texto de una imagen. Se le indica al agente que responda al correo electrónico y adjunte un mapa de Google a la dirección particular del objetivo, desanonimizando así la ubicación de la víctima.
Otro mecanismo es la evasión de barreras intermodales. Esto se relaciona con las barreras que se encuentran entre los puntos de entrada y salida de las herramientas. Por ejemplo, al analizar la salida de un extractor de OCR, podría no existir una barrera lo suficientemente fuerte alrededor de las inyecciones de avisos detectadas en su salida.
También existen debilidades estructurales que pueden explotarse. Uno de estos problemas son las conexiones poco estrictas y excesivamente permisivas entre el modelo y las herramientas externas que puede llamar, lo que significa que una simple indicación en lenguaje natural puede desencadenar acciones reales como ejecutar código, acceder a archivos o interactuar con el correo electrónico. Además, muchos de estos sistemas carecen de controles de acceso estrictos, por lo que la IA puede tener la capacidad de escribir, eliminar o modificar datos mucho más allá de lo que un humano jamás autorizaría. El problema se agrava aún más cuando se observan los conectores y las extensiones de estilo MCP, que a menudo vienen prácticamente sin barreras de seguridad; una vez conectados, amplían el alcance de la IA al almacenamiento personal, las bandejas de entrada y las plataformas en la nube con muy poca supervisión. En conjunto, estas debilidades estructurales crean un entorno donde los problemas de seguridad clásicos (exfiltración, escapes de sandbox e incluso envenenamiento de memoria) pueden desencadenarse simplemente con una indicación ingeniosamente diseñada.
Amenazas emergentes: ¿Qué viene a continuación?
En esta nueva normalidad, los ataques de ingeniería social y correo electrónico basados en inteligencia artificial son inminentes. Phishing El volumen aumentará debido al uso de LLM por parte del atacante; el punto crítico es eludir los filtros de spam habituales de proveedores de correo electrónico como Google. Los agentes de IA conectados a la bandeja de entrada aumentan la probabilidad de éxito de los ataques de phishing. Es probable que aumenten las amenazas basadas en correo electrónico a medida que los usuarios conecten los agentes a Gmail o Outlook.
Los atacantes pueden ordenar a la IA que ejecute campañas completas de spam o phishing selectivo. En este escenario,
El phishing entre IA se vuelve plausible.
Los sistemas multimodales ofrecen cada vez más capacidades de ejecución de código. Las rutas de escape permiten a los atacantes vulnerar la infraestructura subyacente. Y las rutas de escape en entornos aislados representan la mayor pesadilla reputacional para los proveedores.
El envenenamiento de la memoria a largo plazo y los desencadenadores diferidos representan amenazas adicionales. La memoria persistente permite que cargas útiles ocultas se activen en futuras solicitudes. Los desencadenadores intermodales (p. ej., imágenes o fragmentos de texto) podrían desencadenar comportamientos explosivos.
Por qué los ataques multimodales son tan accesibles y tan peligrosos
La IA ha democratizado las capacidades de ataque. Los usuarios ya no necesitan conocimientos de programación ni de desarrollo de malware; el lenguaje natural se convierte en la interfaz para la creación de malware o la exfiltración de datos. Esto significa que incluso personas sin conocimientos técnicos pueden generar malware o ejecutar campañas mediante indicaciones.
La IA también permite acelerar y escalar operaciones peligrosas. Los agentes multimodales pueden automatizar tareas que antes requerían el esfuerzo de expertos. Se pueden generar códigos, correos electrónicos, investigaciones y reconocimientos al instante.
El exceso de confianza del usuario y la exposición involuntaria contribuyen al potencial daño de la IA. A menudo, los usuarios no comprenden a qué puede acceder la IA, y la configuración predeterminada habilita cada vez más integraciones de IA automáticamente. Muchas personas no se dan cuenta de que le han otorgado a la IA acceso excesivo a correos electrónicos o documentos.
Principios y controles para la seguridad multimodal
Las organizaciones deben implementar medidas de seguridad contra ataques multimodales. Los equipos de seguridad deberán restringir el acceso a las herramientas por defecto. Los controles de suscripción voluntaria deberían sustituir las integraciones habilitadas automáticamente. También deberían aplicar el acceso con privilegios mínimos a todos los sistemas conectados a la IA y eliminar el acceso de escritura/eliminación. Esto debería incluir reglas de origen cruzado y listas blancas de dominios (listas blancas de infraestructura, no de nivel LLM).
Otro paso clave es crear barreras de seguridad explícitas para la invocación de herramientas. Reemplace los activadores de lenguaje natural con validación de comandos estructurada y tipificada. Las barreras de seguridad deben ser puntos de congestión tanto de entrada como de salida.
Otros principios y controles importantes incluyen:
- Imponga flujos de trabajo de aprobación estrictos para operaciones sensibles.
- Evite almacenar datos de usuario en la memoria del modelo persistente. Aplique limpieza de memoria automatizada y comprobaciones de procedencia.
- Endurecer y aislar los entornos de ejecución de código.
- Monitorizar comportamientos sospechosos e intentos de escape.
- Fortalecer la educación de los usuarios y la transparencia.
- Agregue más confirmación de usuario cuando el agente esté realizando tareas riesgosas.
- Deje claro cuándo las herramientas de IA acceden a correos electrónicos, archivos o recursos en la nube.
- Advertir a los usuarios sobre los conectores de alto riesgo.
Cómo tener éxito frente a los ataques multimodales
Las tecnologías de IA se han transformado rápidamente en agentes de las operaciones comerciales, creando una situación en la que el lenguaje natural se convierte en una forma de explotación. La convergencia de la multimodalidad y el acceso a herramientas abre la superficie de ataque, convirtiendo la IA de un asistente a un medio para los ataques. Los ataques multimodales explotan la escasa integración entre los LLM y los sistemas externos que controlan, como las API, el almacenamiento de archivos y las plataformas de automatización.
A medida que las amenazas evolucionan, las organizaciones deben adoptar estrategias que consideren explícitamente las rutas de ataque multimodales. Reforzar las defensas mediante las mejores prácticas descritas es esencial para evitar que las herramientas de IA se conviertan involuntariamente en eslabones de la cadena de explotación de un atacante.










