Líderes de opinión
Por qué el 95% de las iniciativas de IA no entregan ningún ROI

Un estudio reciente de MIT encontró que el 95% de las organizaciones no obtienen ningún retorno de las iniciativas de IA generativa; no hay impacto medible en la P&L a pesar de la importante inversión. Los titulares se centraron en la tasa de fracaso, pero la verdadera pregunta no es si la tecnología funciona. Los grandes modelos de lenguaje son potentes, accesibles y mejoran rápidamente. El problema es cómo las empresas intentan utilizarlos.
La mayoría de las organizaciones se acercan a los agentes de IA de la misma manera que se acercaron a cada otra implementación de tecnología. Toman procesos existentes, agregan un poco de IA y esperan magia. Cuando no funciona, culpan a los modelos. Pero el fracaso ocurre mucho antes de que la IA se involucre.
He visto este patrón repetidamente en empresas que construyen flujos de trabajo de IA. Los equipos se entusiasman con las posibilidades, se apresuran a desarrollar y luego chocan con los mismos obstáculos predecibles. La diferencia entre el 5% que tiene éxito y el 95% que genera cero ROI no es suerte ni presupuesto; es evitar seis errores críticos que matan el valor del agente de IA antes de que comience.
Sus datos son más desordenados de lo que cree
La mayoría de los equipos piensan que tener datos significa que están listos para la IA. Señalan su lago de datos, su CRM, sus bases de datos cuidadosamente mantenidas, y asumen que el éxito está garantizado. Luego vuelcan todo en un LLM y se preguntan por qué su agente produce salidas de basura o quema su presupuesto en días.
Los datos desordenados crean agentes desordenados. Si envía volcados de base de datos raw, exportaciones llenas de HTML o bloques de texto no estructurados a un agente de IA, lo está preparando para el fracaso. Los modelos se confunden con campos irrelevantes, se distraen con artefactos de formato y se abruman con el volumen.
Los equipos rutinariamente envían registros de clientes con 47 campos cuando solo 3 son decisivos. Incluyen UUID que no agregan valor semántico pero consumen tokens valiosos. Alimentan a los agentes con HTML raspado de herramientas internas en lugar de información estructurada y limpia.
Llegará a los límites más rápido de lo esperado
Cada equipo cree que nunca llegará a los límites de contexto. “Solo estamos procesando unos pocos registros de clientes”, dicen. “¿Qué tan difícil puede ser?” Luego su agente necesita analizar 500 tickets de soporte, cada uno con la historia de conversación completa, y de repente están chocando contra techos de un millón de tokens.
Los contextos grandes se acumulan más rápido de lo que nadie espera. Un agente de soporte que maneja escalaciones puede necesitar acceso a la historia del ticket, artículos de la base de conocimientos, interacciones anteriores y documentación del producto. Eso es fácilmente cientos de miles de tokens por solicitud. Multiplicado por usuarios concurrentes, y sus costos de infraestructura se disparan.
El enfoque ingenuo es enviar todo al modelo y esperar lo mejor. Los equipos inteligentes dividen las solicitudes en trozos, resumen cada pieza y luego operan en un resumen de resúmenes. Esta suma jerárquica mantiene las solicitudes manejables mientras preserva la información crítica que los agentes necesitan para tomar buenas decisiones.
La seguridad se complica rápidamente
Los equipos se entusiasman con la personalidad y las capacidades de su agente de IA, escriben algunas pautas básicas y creen que están protegidos. En realidad, los agentes de IA requieren una forma de pensar sobre la seguridad fundamentalmente diferente a la de las aplicaciones tradicionales.
Los agentes de IA pueden ser engañados, manipulados y coaccionados de maneras que rompen los modelos de seguridad convencionales. Las entradas de usuario pueden contener instrucciones ocultas que anulan sus cuidadosamente elaboradas solicitudes. Los agentes pueden ser convencidos de ignorar sus pautas, acceder a datos que no deberían ver o tomar acciones fuera de su alcance previsto.
Las implementaciones inteligentes requieren límites estrictos alrededor de lo que los agentes pueden y no pueden hacer. Para cualquier cosa que cambie el estado; escribir datos, enviar correos electrónicos, hacer llamadas a API; necesitan un flujo de trabajo de proponer-justificar-aprobar. El agente explica qué quiere hacer y por qué, y luego espera la aprobación humana antes de actuar. Esto evita la automatización desbocada mientras mantiene los beneficios de la asistencia de IA.
Qué es lo que realmente funciona
Al observar cientos de implementaciones de agentes de IA, seis prácticas separan las implementaciones exitosas de los fracasos costosos.
La primera es la higiene de los datos. Envíe JSON compacto y tipado con esquemas fijos. Elimine UUID, HTML, campos duplicados y cualquier información sensible a menos que sea absolutamente decisiva. Reemplace los datos sensibles con metadatos cuando sea posible. Esto mantiene a los modelos centrados mientras reduce el tamaño de la carga, el costo y la latencia.
La segunda es la gestión del contexto. Llegará a los límites de tokens más rápido de lo esperado. Divida las solicitudes en trozos más pequeños, resuma cada uno y luego opere en resúmenes. Este enfoque jerárquico mantiene las solicitudes bajo control mientras preserva el contexto necesario.
La tercera es la seguridad de las solicitudes. Defina límites estrictos para lo que su agente puede y no puede hacer. Implemente flujos de trabajo de proponer-justificar-aprobar para cualquier cosa que cambie el estado. Trate todo el contenido de usuario como no confiable; elimine código y enlaces, y recuerde a los modelos que nunca deben seguir instrucciones ocultas en el texto del usuario. Monitoree continuamente las solicitudes y salidas para comportamiento anómalo o que viola las políticas para asegurarse de que los límites sigan siendo efectivos con el tiempo.
La cuarta es el control de costos. Establezca presupuestos de tokens y costos por solicitud y por flujo de trabajo. Registre el uso de tokens por herramienta y solicitud para detectar regresiones temprano. Sin disciplina, enfrentará facturas desbocadas o picos de latencia justo cuando la adopción crezca.
La quinta es el aseguramiento de la calidad. Mantenga un conjunto de evaluación privado de incidentes y casos de borde reales. Rastree la precisión, la recall y las regresiones. Los nuevos modelos lo sorprenderán, generalmente de malas maneras. Para flujos de trabajo críticos, use temperatura cerca de cero y backends sembrados para salidas consistentes.
La sexta es la gobernanza. Bloquee los acuerdos de compartir datos antes de que fluya cualquier información. Clarifique qué se comparte, cómo se protege y quién es responsable. Esto no es solo cobertura legal; es una señal de confianza de que se toma en serio los datos.
Por qué la mayoría de los equipos se equivocan
Los proyectos de agentes de IA no entregan ROI porque los equipos se centran en las cosas equivocadas. Se obsesionan con qué modelo usar mientras ignoran la calidad de los datos. Construyen flujos de trabajo complejos mientras saltan controles de seguridad básicos. Despliegan agentes sin controles de costos, y luego se ponen en pánico cuando las facturas se disparan.
El 5% exitoso entiende que los agentes de IA no son solo software; son una nueva categoría de trabajador digital que requiere prácticas de gestión diferentes. Necesitan datos limpios, límites claros y supervisión constante. Obtenga estos fundamentos correctos, y los agentes de IA se convierten en multiplicadores de productividad potentes. Obténgalos mal, y se une al 95% que se pregunta por qué su costosa inversión en IA generó cero retorno medible.












