Líderes de opinión
Por qué los agentes de IA en las empresas se enfrentan a un problema de conocimiento, no de tecnología

El año pasado, S&P Global informó que la proporción de empresas que abandonan la mayoría de sus iniciativas de IA más que se duplicó, de 17% a 42%. Antes de eso, Gartner publicó una previsión sobre los proyectos de IA agente: el 40% de ellos será cancelado antes de finales de 2027.
Según McKinsey & Company, casi la mitad de todas las empresas están experimentando con agentes de IA. Pero, ¿cuántas han superado la etapa de prueba y están realmente operativas? Alrededor de una de cada diez.
La industria no carece de explicaciones: alucinaciones de modelos, falta de gobernanza, altos costos de GPU y escasez de especialistas. Todos estos son desafíos reales. Pero después de tres años de trabajar con sistemas de gestión del conocimiento y agentes de IA, estoy viendo cada vez más un patrón diferente: las empresas pasan datos incompletos a sus agentes.
Como Doctor en Ciencias Pedagógicas, veo esto como un problema de transferencia de conocimiento. Si una persona no puede explicar cómo toma decisiones, su lógica no se puede transferir a un nuevo empleado, y mucho menos a un agente de IA. Veamos por qué sucede esto y qué se puede hacer al respecto.
Dónde reside el conocimiento sobre cómo opera realmente una empresa
Pregúntele a una gran empresa dónde se almacena el conocimiento de los empleados, y obtendrá una larga lista: Confluence, SharePoint, plataformas LMS, bots de preguntas frecuentes, archivos de Slack. Puede parecer que este es exactamente el conjunto que un sistema RAG puede utilizar para recuperar todo lo que necesita. Pero un elemento crucial está faltando: el conocimiento que vive en la cabeza de las personas. Conocimiento que nadie ha escrito nunca.
¿Por qué es esto un problema?
Porque para que un agente de IA tome parte de un flujo de trabajo —entienda el contexto, elija una acción y lleve a cabo una tarea hasta su completación— necesita no solo acceso a una base de conocimientos, sino también la lógica de toma de decisiones utilizada por un especialista experimentado.
Imagínese a un nuevo agente de soporte que recibe una solicitud: un cliente afirma que ha pagado por un servicio, pero no se ha activado el acceso. El guion incluye un conjunto estándar de pasos que termina con pedirle al cliente que espere. Sin embargo, el agente nota que la situación es inusual: el cliente ya ha contactado al soporte dos veces, y hay varios casos similares en el sistema en la última hora. Se comunica con un colega más experimentado, que explica que ha visto esto antes y que el problema probablemente sea un fallo en la intersección de la pasarela de pago, el banco y el sistema de activación interno —por lo que el caso debe ser escalado a otro departamento.
Para un agente de IA, esta lógica es invisible. Puede tener acceso al guion, al historial de tickets y al estado de pago si estas fuentes de datos están conectadas, pero no sabe qué señales un operador experimentado considera decisivas. No es que los expertos estén reteniendo intencionalmente este conocimiento. Simplemente no pueden formalizarlo o desglosarlo en pasos: qué opciones se descartaron, por qué se eligió una acción en particular y en qué momento se hizo claro que el escenario estándar no se aplicaba. Los científicos cognitivos se refieren a este fenómeno como conocimiento tácito —conocimiento implícito que incluso su poseedor puede no ser plenamente consciente.
Esto es por qué el cuello de botella no surge en el nivel de acceso a los documentos, sino en la etapa de convertir la experiencia del experto en un formato adecuado para entrenar a un agente de IA.
Qué hacer al respecto
Para que un agente de IA funcione de manera efectiva, no basta con conectar simplemente un LLM a una base de conocimientos corporativa, porque las decisiones exitosas a menudo dependen del conocimiento tácito. Primero, se debe crear una capa de conocimiento que incluya criterios de toma de decisiones estructurados.
En la gestión del conocimiento, este proceso se conoce como externalización —convertir el conocimiento tácito en conocimiento explícito. En otras palabras, una empresa necesita entender no solo qué hace un experto, sino cómo piensa. Esto se hace típicamente a través de una serie de entrevistas en profundidad con un experto de alto nivel. Junto a ellos debe haber alguien con habilidades para hacer las preguntas adecuadas: un metodólogo, ingeniero de conocimiento o especialista en diseño instructivo. Su tarea no es escribir un “manual basado en lo que dice el experto”, sino reconstruir los criterios para elegir entre opciones, desglosar los casos límite y sacar a la superficie los errores típicos que el experto ya maneja automáticamente.
Aquí, la IA puede ayudar significativamente: transcribiendo entrevistas, agrupando casos similares, convirtiendo explicaciones de expertos en borradores de escenarios y generando situaciones para validación. Sin embargo, la estructura final aún necesita ser revisada y aprobada por el experto.
El resultado debe ser un corpus de conocimiento operativo. Puede usarse en dos direcciones al mismo tiempo —para entrenar a nuevos empleados y para configurar un agente de IA. Ambos escenarios dependen de la misma base: experiencia estructurada de especialistas de alto nivel.
La alternativa es seguir confiando en la suposición de que RAG sobre Confluence de alguna manera reconstruirá la lógica que nunca se documentó. En la práctica, esto casi nunca funciona: el sistema puede recuperar un documento relevante, pero no aprenderá a tomar decisiones en situaciones donde la acción correcta depende del contexto y la experiencia.
Cómo verificar que un agente esté listo para trabajar
Ha transformado el conocimiento de expertos en escenarios y ha configurado el agente. Pero hay una brecha entre las respuestas plausibles del agente y su desempeño operativo real —y esta brecha solo se vuelve visible durante la validación. En esta etapa, es importante determinar si se ha capturado realmente todo el conocimiento necesario.
Un enfoque práctico es la prueba basada en escenarios. Le da al agente casos reales del trabajo diario de un experto: un cliente disputa un cargo, llega un correo electrónico inusual o aparece una solicitud que no se ajusta al guion básico. Los resultados no deben evaluarse con otro LLM, sino con el mismo experto que ayudó a construir el corpus de conocimiento. Si el agente toma un camino diferente al del especialista experimentado, no siempre significa que el modelo es débil. Con más frecuencia, indica que una regla crítica, excepción o ejemplo está faltando. En ese caso, el proceso regresa al principio: el metodólogo aclara la lógica con el experto, el corpus de conocimiento se actualiza, las instrucciones se refinan y la prueba se repite.
Este ciclo no es un paso opcional, sino una etapa que define la diferencia entre un agente que simplemente “demuestra potencial” y uno que realmente realiza trabajo. Es una parte lenta y no muy impresionante del proceso: no produce una demostración llamativa y requiere la participación de expertos. Pero aquellos que pasan por ella sistemáticamente terminan con agentes que realmente reducen la carga de trabajo rutinaria para los especialistas. Aquellos que la saltan, dentro de seis meses a menudo se encuentran en las estadísticas de Gartner, que predice que el 40% de los proyectos será cancelado.
La IA agente no falla debido a la tecnología —los modelos modernos ya son capaces de realizar tareas complejas. Falla porque las empresas “alimentan” a la IA con conocimiento incompleto. En 2024-2025, esto aún podía explicarse por la etapa experimental. En 2026, este error ya conlleva un costo alto.












