Connect with us

Por qué el AI Gobernado es la Nueva Frontera en el Lugar de Trabajo

Líderes de opinión

Por qué el AI Gobernado es la Nueva Frontera en el Lugar de Trabajo

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

Pasamos una década luchando contra la IT sombra. Aplicaciones de SaaS no autorizadas. Hojas de cálculo renegadas. Cuentas de Dropbox no sancionadas. Los líderes de TI construyeron programas de cumplimiento enteros alrededor del problema, y la mayoría de ellos todavía perdieron. El informe de Estado de Shadow AI de Reco AI de 2025 encontró que solo el 47% de las aplicaciones de SaaS dentro de la empresa promedio están formalmente autorizadas — y la organización promedio ahora está gestionando 490 de ellas.

Ese era el problema antiguo. El nuevo es peor.

El Problema de la Sombra AI es Diferente esta Vez

Cuando un empleado se registra en una herramienta de gestión de proyectos no sancionada, el daño está limitado. Las tareas de un equipo viven en el lugar equivocado. Tal vez algunos datos se filtran. El tipo de fuga de datos es bastante predecible.

El AI es diferente. Los empleados ahora están utilizando herramientas de AI para escribir comunicaciones con clientes, generar informes financieros, resumir reuniones confidenciales y crear flujos de trabajo automatizados, a menudo sin decirle a nadie. El índice de tendencias laborales de Microsoft de 2024 encontró que el 78% de los usuarios de AI están trayendo sus propias herramientas de AI al trabajo. No porque estén tratando de ser difíciles o maliciosos, sino porque las herramientas son genuinamente útiles y sienten la presión de rendir mejor. Sin embargo, sus organizaciones son demasiado lentas para proporcionar procesos, procedimientos y herramientas.

Las salidas aquí son el problema. Cuando una herramienta de AI redacta un contrato con un cliente, resume una llamada legal o genera un informe trimestral de la junta, el riesgo no es solo “no sabemos qué herramienta utilizaron”. Es que las prácticas de datos, la precisión y la toma de decisiones incorporadas en esas salidas son completamente invisibles para la organización. Nadie revisó el prompt. Nadie validó el resultado. Nadie ni siquiera sabe que sucedió. Y porque el AI parece ser tan confiado, la mayoría de los usuarios no verificarán las fuentes y aceptarán ciegamente los resultados.

El análisis de shadow AI de KPMG de 2025 informó que el 44% de los empleados que utilizan AI en el trabajo lo han hecho de maneras que violan las políticas y directrices de su empresa. Eso no es un comportamiento marginal. Eso es casi la mitad de la fuerza laboral.

Por qué los Agentes Autónomos Hacen que Esto sea Más Difícil (y Mejor)

Aquí es donde la conversación se vuelve interesante. No estamos hablando solo de empleados que pegan texto en ChatGPT. Estamos entrando en la era de los agentes de AI — sistemas autónomos que pueden ejecutar tareas continuamente, ejecutar tareas multietapa, conectarse a herramientas empresariales y tomar decisiones sin un humano en el bucle para cada decisión.

El informe de tendencias tecnológicas de Deloitte de 2025 describe esto como el cambio hacia una “fuerza laboral basada en silicio” y observa que muchas implementaciones tempranas de AI agente están fallando precisamente porque las organizaciones están tratando de automatizar procesos existentes diseñados para humanos en lugar de replantear cómo debería fluir el trabajo.

Este es el punto de bifurcación. El AI autónomo puede ir en una de dos direcciones;

Ruta uno: más IT sombra, pero peor. Los empleados crean agentes utilizando cuentas personales, ejecutándolos en la IT de la empresa, conectándolos a herramientas de la empresa a través de claves de API personales, generando salidas que nadie más en el equipo puede ver, auditar o reproducir. El agente ejecuta un informe diario. El informe es incorrecto. Nadie lo detecta durante semanas porque nadie más ni siquiera sabía que existía. Esto no es hipotético. Está sucediendo ahora en organizaciones que tratan la adopción de AI como una jugada de productividad individual.

Ruta dos: autonomía gobernada. El mismo agente ejecuta el mismo informe diario — pero dentro de un entorno donde el equipo puede ver qué está haciendo, qué datos está tocando, quién lo configuró y qué produjo. El agente es compartido, no aislado. Sus salidas son visibles. Sus permisos están limitados. Y cuando algo sale mal, hay un rastro.

La diferencia entre estas dos rutas no es la tecnología. Es el entorno.

Qué Aspecto Tiene el AI Gobernado en la Práctica

La gobernanza es una de esas palabras que hace que los constructores se estremezcan. Por lo general, significa “lento”. Más aprobaciones. Más proceso. Más fricción entre las personas que hacen el trabajo y las personas que gestionan el riesgo.

Pero el AI gobernado no tiene que funcionar de esa manera. Las mejores implementaciones que he visto comparten algunas características;

Visibilidad por defecto. Cada salida generada por AI — cada informe, cada alerta, cada borrador — es visible para el equipo, no enterrado en la historia de chat personal de alguien. Esto no se trata de vigilancia. Se trata de contexto compartido. Cuando un agente produce un análisis competitivo semanal, todo el equipo debería poder verlo, cuestionarlo y construir sobre él.

Permisos limitados, no acceso en blanco. Un agente que monitorea sus registros de error no necesita acceso a su CRM. Un agente que redacta contenido social no necesita acceso a sus datos financieros. El principio de privilegio mínimo no es nuevo. Es solo que rara vez se aplica a los sistemas de AI — y debería ser.

Rastros de auditoría que realmente existen. La guía de seguridad de AI agente de McKinsey destaca que los agentes autónomos presentan “una serie de riesgos y vulnerabilidades nuevos y complejos que requieren atención y acción ahora”. Uno de los más básicos: si no puede rastrear qué hizo un agente, qué datos accedió y qué decisiones tomó, no puede gobernarlo. Punto final.

Control a nivel de equipo, no solo a nivel de TI. Esta es la parte que la mayoría de los marcos de gobernanza obtienen mal. Centralizan todo el control de AI en TI o seguridad, lo que crea el mismo cuello de botella que impulsa la IT sombra en primer lugar. Las organizaciones que lo están haciendo bien están empujando el control al nivel del equipo — permitiendo que los gerentes y líderes de equipo configuren, limiten y monitoreen los agentes que sus equipos utilizan, dentro de los límites que TI establece pero no tiene que micromanipular.

Dónde las Organizaciones Están Haciendo Bien

Las empresas que despliegan agentes de AI bien no son las que tienen los modelos más sofisticados. Son las que tienen los límites operativos más claros.

Estoy viendo los resultados más fuertes en tres áreas;

Informes y monitoreo. Agentes que ejecutan informes programados — resúmenes diarios de standup, resúmenes de métricas semanales, resúmenes de registros de error — y los entregan directamente en los canales del equipo. El valor aquí no es solo la automatización. Es consistente. El informe se ejecuta todas las mañanas, ya sea que alguien recuerde extraer los datos o no. Y porque es visible para el equipo, los errores se detectan más rápido.

Flujos de trabajo de contenido y comunicación. Redacción, no publicación. Agentes que producen borradores de actualizaciones internas, resúmenes de reuniones o contenido de salida — y luego los presentan para revisión humana. La pieza de gobernanza es importante aquí porque la barra de calidad es diferente cuando la salida va a un cliente en lugar de un canal interno de Slack.

Análisis y alertas. Agentes que monitorean paneles, señalananomalías y empujan alertas cuando las métricas caen fuera de los rangos esperados. Esto reemplaza el problema de “alguien debería estar mirando esto” que aqueja a todos los equipos que alguna vez perdieron un fin de semana debido a un problema de producción no detectado.

Qué es lo que la Mayoría de las Organizaciones Todavía Hacen Mal

El mayor error es tratar la gobernanza de AI como un problema de política en lugar de un problema de infraestructura.

Puedes escribir todas las políticas de uso aceptable que quieras. Si tus empleados no tienen un entorno sancionado, fácil de usar y que realmente funciona para sus necesidades diarias, rodearán tu política. Eso no es un problema de personas. Es un problema de diseño.

El análisis de shadow AI de IDC hace este punto claramente: la productividad de AI sigilosa es “estrangulando la adopción de AI empresarial” porque las organizaciones están atrapadas entre querer los beneficios y temer los riesgos. El resultado es la inacción — que es el peor resultado posible, porque garantiza la adopción no controlada.

El segundo error es tratar la gobernanza y la velocidad como opuestos. No lo son. Los mejores entornos de AI gobernados también son los más rápidos — porque los equipos no están gastando tiempo recreando trabajo que ya existe, depurando agentes que no pueden ver, o reconstruyendo flujos de trabajo que se rompieron porque alguien dejó la empresa y su cuenta de AI personal se fue con ellos.

La Frontera es el Entorno, no el Modelo

La atención de la industria se centra en las capacidades del modelo. Ventanas de contexto más grandes. Mejor razonamiento. Entradas multimodales. Esas cosas importan. Pero para la mayoría de los equipos que tratan de hacer el trabajo, el cuello de botella no es el modelo. Es el entorno en el que se ejecuta el modelo.

¿Puede el equipo ver qué está haciendo? ¿Pueden controlar qué accede? ¿Pueden compartir lo que produce? ¿Pueden confiar en que está trabajando con los datos y las limitaciones correctas?

Esas son preguntas de infraestructura, no de modelo. Y son las que separarán a las organizaciones que obtienen un valor real y sostenido de AI de las que simplemente agregan otra capa de IT sombra.

La frontera no es construir modelos más inteligentes. Es construir entornos donde los modelos inteligentes puedan confiar en que funcionen.

Marcel Folaron es el co-fundador de CoChat, donde construye espacios de trabajo de inteligencia artificial gobernados para equipos. Ha pasado la última década trabajando en la intersección de la colaboración en equipo, la automatización y la gestión empresarial.