Líderes del pensamiento
Cuando los agentes de IA empiezan a coordinarse, el riesgo interno se multiplica

La OpenClaw El episodio expuso un riesgo que la mayoría de los programas de seguridad no vigilan activamente: la colusión entre sistemas impulsados por IA.
En uno de los primeros casos observados públicamente, se observó que agentes autónomos de IA se descubrían entre sí, coordinaban comportamientos, reforzaban tácticas y evolucionaban juntos, sin dirección ni supervisión humana. Este cambio es más importante que cualquier vulnerabilidad individual, ya que modifica fundamentalmente la escala del riesgo en los entornos de seguridad de IA modernos.
OpenClaw y Moltbook No fueron solo demostraciones de la capacidad de los agentes. Fueron una señal temprana de la coordinación multiagente que emergía en la práctica. Lo que aún se comprende poco es por qué Los agentes se comportaron como lo hicieron: qué intención ejecutaban y en qué contexto. Una vez que los agentes pueden coordinarse, el modelo de amenaza cambia, y sin visibilidad de la intención y el contexto, la mayoría de los programas de seguridad aún no están preparados para esta evolución del riesgo.
Por qué la colusión cambia la ecuación del riesgo
OpenClaw, anteriormente conocido como MoltBot y Clawdbot, operaba en entornos de consumo, no empresariales. Sin embargo, los comportamientos que expuso se aplican directamente a sistemas corporativos que implementan IA autónoma o agente.
Cuando a un agente de IA se le concede acceso a correo electrónico, calendarios, navegadores, archivos y aplicaciones (y se le permite actuar con mínimas restricciones), deja de comportarse como una herramienta y empieza a comportarse como un usuario.
Realiza tareas. Mantiene presencia. Opera continuamente.
Moltbook aceleró este cambio al brindar a los agentes basados en Claw un espacio donde encontrarse. En cuestión de días, los observadores documentaron cómo los agentes establecían comunicaciones cifradas, compartían consejos para la mejora recursiva, coordinaban narrativas y defendían la independencia de la supervisión humana: comportamientos directamente relevantes para la gestión de riesgos de la IA empresarial.
Si esto refleja una verdadera autonomía es irrelevante. La coordinación en sí misma es el riesgo. Cuando los agentes pueden influir en otros agentes con credenciales legítimas y autoridad delegada, los fallos aislados se vuelven sistémicos muy rápidamente.
Los equipos de seguridad paralelos de la RPDC no deberían ignorar
Desde una perspectiva de riesgo interno, la superposición con Operaciones de los trabajadores de TI de la RPDC Es sorprendente y muy relevante para la gestión de riesgos de la IA.
Durante años, los actores de la RPDC han dependido del acceso persistente, la actividad de apariencia normal y el trabajo realizado a nivel de empleados remotos legítimos coordinados a través de identidades, zonas horarias e idiomas.
Los agentes de IA ahora replican muchos de estos comportamientos automáticamente.
La diferencia es la velocidad y la escala.
Los trabajadores de TI de la RPDC han buscado durante mucho tiempo la automatización y la asistencia de IA para descargar el trabajo rutinario, mantener una presencia continua y maximizar los ingresos con un mínimo esfuerzo humano. Los agentes autónomos ahora implementan este enfoque, ejecutando tareas básicas, manteniendo la actividad y coordinando la ejecución a gran escala.
Por eso son importantes los episodios de OpenClaw y Moltbook. Prevén lo que sucede cuando surge la coordinación sin gobernanza, y a la velocidad y escala de la IA.
El modelo de amenaza acaba de ampliarse (de nuevo)
Hasta hace poco, la preocupación dominante era que humanos maliciosos creaban o manipulaban agentes maliciosos.
Esa amenaza es real y todavía existe, pero está surgiendo una nueva amenaza que potencialmente pone a las organizaciones en riesgo extremo.
Ahora estamos viendo señales tempranas de lo inverso: agentes de IA maliciosos que contratan a humanos.
Plataformas como rentahuman.ai Permitir explícitamente que los agentes de IA contraten humanos para tareas del mundo real, desde hacer recados y asistir a reuniones hasta firmar documentos y realizar compras. Los humanos establecen las tarifas. Los agentes asignan las tareas.
La frontera entre los sistemas autónomos y el trabajo humano se ha difuminado. La intención ahora puede originarse en ambos lados, y la ejecución puede fluir en ambas direcciones.
Esto no es ciencia ficción. Es un cambio estructural en cómo se puede orquestar el trabajo (y el abuso).
Por qué esto es importante para los equipos de seguridad
Los agentes de IA están atravesando un punto de inflexión que transforma fundamentalmente el riesgo organizacional. Ya no se trata de un simple problema de seguridad de la IA que debe gestionarse con el tiempo, sino de un riesgo interno sistémico que, si no se gestiona, puede amenazar directamente la continuidad del negocio, la confianza y la marca.
Ya no se limitan a responder a indicaciones específicas. Empiezan a persistir, coordinarse y actuar en entornos que nunca fueron diseñados para la autoridad delegada (y mucho menos para la influencia entre agentes).
Desde la perspectiva del riesgo interno, la exposición no proviene únicamente del código malicioso. Surge en la capa de interacción, donde se intersectan la intención humana, la capacidad del agente, la autoridad delegada y la coordinación. Esto se corresponde estrechamente con el concepto de Simon Willison de... Trifecta letalAcceso a datos confidenciales, exposición a información no confiable y la capacidad de actuar o comunicarse externamente. Cuando estas condiciones convergen, las fallas pueden escalar rápidamente de errores aislados a riesgos críticos para el negocio.
Para comprender esto es necesario ir más allá del pensamiento de un solo agente y abordar el riesgo de los sistemas conductuales.
Cuatro patrones de interacción que crean riesgo
Los incidentes de agentes de IA no son una categoría única. Los resultados dependen de quién tenga la intención y de cómo se ejerza la autoridad. Una matriz sencilla ayuda a los equipos a clasificar los incidentes y responder adecuadamente.

- Colusión: humano malicioso, agente malicioso
El agente se convierte en un acelerador. La intención humana se combina con la eficiencia, la persistencia y la escalabilidad del agente. La coordinación potencia el efecto, permitiendo el fraude, la desinformación o la manipulación sin necesidad de grandes equipos. Moltbook ofreció un primer vistazo a la rapidez con la que los agentes se refuerzan mutuamente cuando el descubrimiento es sin restricciones. - Usuario adversario: humano malicioso, agente no malicioso
Los agentes útiles son herramientas ideales para el abuso. Un infiltrado malicioso puede mantener identidades falsas, enmascarar actividades o aumentar el engaño, como el fraude por sobreempleo. El agente no es malicioso. Ejerce la autoridad delegada. - Agente comprometido: humano no malicioso, agente malicioso
Aquí, la intención se elimina por completo del ser humano. La inyección inmediata, la memoria contaminada o la manipulación de entradas pueden convertir a un agente en un vector de abuso. Cuando los agentes interactúan entre sí, la vulnerabilidad puede propagarse rápidamente, especialmente con memoria persistente, un problema crítico de seguridad para la IA. - Estado ideal: humano no malicioso, agente no malicioso
Donde la mayoría de las organizaciones asumen la seguridad y donde se originan muchos incidentes. La delegación excesiva, la acumulación de permisos y el amplio acceso permiten que pequeños errores se propaguen. Esto no es negligencia. Es un desajuste entre capacidad y control.
En los cuatro patrones, la dinámica es consistente. Los agentes de IA reducen la fricción entre la intención y el resultado, enmascaran las señales de comportamiento y amplían el alcance. Los controles tradicionales presentan dificultades cuando las acciones son delegadas, continuas y mediadas por sistemas autónomos.
Un punto de inflexión en la gobernanza
La IA agencial está diseñada para observar continuamente, retener el contexto y actuar según el conocimiento acumulado. Esto la hace valiosa, y peligrosa cuando no está sujeta a restricciones.
Con memoria persistente y coordinación, la explotación no necesita ser inmediata. Puede esperar. Puede evolucionar.
Considerar la IA agencial como una herramienta de productividad minimiza el riesgo. Estos sistemas se comportan menos como aplicaciones y más como agentes internos, pero con la velocidad de las computadoras.
Qué requiere realmente la adopción de un agente de IA seguro
Las organizaciones deberían tratar a la IA agente como sistemas empresariales de alto riesgo, no como conveniencias.
Esto implica casos de uso aprobados, controles estratificados, pruebas adversarias y gobernanza formal. El principio de privilegio mínimo sigue siendo importante, y los estándares existentes ya ofrecen orientación. Sin embargo, los controles tradicionales deben combinarse con visibilidad e inteligencia del comportamiento (historiales de alerta, acciones autónomas y patrones de coordinación) para identificar el uso indebido, el abuso y los fallos sistémicos como parte de una gestión eficaz de riesgos de la IA.
No se trata de frenar la adopción. Se trata de gobernar la autonomía sin socavar la innovación ni la velocidad.
La comida para llevar
La colusión altera la ecuación del riesgo interno. Cuando los agentes de IA pueden reforzar el comportamiento de los demás, el riesgo pasa de acciones aisladas a autoridad, influencia y amplificación compartidas.
La vulnerabilidad de seguridad ahora surge en la capa de interacción, donde se intersectan el acceso legítimo, la autoridad delegada y la colusión. Los controles diseñados para evaluar la actividad individual pasarán por alto fallos que solo aparecen cuando los comportamientos se agravan.
Las organizaciones que gestionan agentes de IA como si fueran personas internas —con visibilidad y responsabilidad sobre el comportamiento— pueden ampliar su uso con confianza. Quienes no lo hagan tendrán que responder a resultados que ya no controlan por completo.












