Entrevistas
Ali Sarrafi, CEO y Fundador de Kovant – Serie de Entrevistas

Ali Sarrafi, CEO y Fundador de Kovant, es un experimentado ejecutivo de tecnología y AI con sede en Estocolmo y con un historial de construir y escalar empresas de AI de alto crecimiento. Desde la fundación de Kovant a finales de 2024, ha aprovechado su profunda experiencia en estrategia de AI empresarial, ejecución de lanzamiento al mercado y escalado operativo. Anteriormente, se desempeñó como Vicepresidente de Estrategia en Silo AI después de su adquisición por AMD, donde fue responsable de dar forma a la estrategia de AI empresarial y impulsar la adopción a gran escala. Al comienzo de su carrera, cofundó Combient Mix, liderando la empresa a través de un crecimiento rápido y una adquisición exitosa por Silo AI, y desde entonces ha ocupado puestos asesores y de consejo en startups de educación y AI, reflejando un enfoque constante en traducir AI avanzada en impacto empresarial real.
Kovant es una empresa de AI empresarial centrada en permitir que las organizaciones pasen de un uso experimental de AI a procesos comerciales autónomos y completamente operativos. La empresa desarrolla una plataforma basada en agentes diseñada para orquestar equipos de agentes de AI en dominios operativos complejos como la compra, las cadenas de suministro, el cumplimiento y las operaciones del cliente. Al enfatizar la implementación segura de nivel empresarial y el tiempo de valor rápido, Kovant se posiciona como un puente entre la ambición estratégica de AI y la ejecución diaria, ayudando a las grandes organizaciones a integrar AI directamente en los flujos de trabajo básicos en lugar de tratarla como una herramienta independiente o proyecto piloto.
Ha liderado importantes iniciativas de AI en Spotify, escalado y salido de Combient Mix, y luego dio forma a la estrategia de AI empresarial en Silo AI antes de fundar Kovant. ¿Qué brechas o frustraciones específicas encontró en esos roles que lo convencieron de que era el momento adecuado para construir una plataforma empresarial autónoma, y cómo esa historia dio forma a la filosofía de diseño central de Kovant?
A lo largo de mis roles anteriores, algunas brechas consistentes seguían apareciendo. Primero, la mayoría de las herramientas de AI “verticales” están efectivamente atrapadas en una sola pila de software: hacen algo ligeramente mejor dentro de ese límite, pero luchan en el momento en que un flujo de trabajo necesita abarcar múltiples sistemas. Al mismo tiempo, los datos empresariales están dispersos en muchas herramientas, y muchas soluciones de automatización simplemente no pueden acceder a ellos. Agregue años de integraciones de puntos y obtendrá la arquitectura de espagueti clásica: la complejidad aumenta, el cambio se vuelve más lento, y los equipos terminan automatizando pasos individuales en lugar de reimaginear el flujo de trabajo de extremo a extremo. El resultado es que el ROI a menudo llega más lento – y más pequeño – de lo que las organizaciones esperan.
Kovant está diseñado como respuesta a esa realidad. Nuestra filosofía central es que los agentes deben comportarse más como empleados: trabajan en varias herramientas, están “contratados” para hacer trabajos, no para automatizar una sola secuencia scriptada. Es por eso que las integraciones y la orquestación están incorporadas, y por qué asumimos que los datos empresariales a menudo son desordenados y no estructurados: necesitan un enfoque más humano para manejar excepciones y ambigüedad.
Utilizamos agentes de base para lograr velocidad y escala, manteniendo la soberanía de los datos en el centro: las empresas pueden acceder y utilizar sus propios datos de manera horizontal sin que salgan de sus instalaciones.
Kovant se posiciona como una plataforma empresarial autónoma capaz de ejecutar operaciones y departamentos completos con agentes de AI. ¿Cómo define “autónomo” en un contexto empresarial, y cómo difiere esto de las herramientas de automatización y agentes con las que las empresas ya están experimentando hoy en día?
En un contexto empresarial, cuando decimos “autónomo” no queremos decir “no supervisado”. Queremos decir que los agentes de AI pueden tomar acciones reales de extremo a extremo en una operación con objetivos y guardias claros, y que escalarán a los humanos cuando se necesite supervisión.
Lo que hace que Kovant sea diferente es nuestro enfoque en agentes de base. En lugar de automatizar un proceso fijo o seguir una secuencia preconstruida, los agentes de Kovant pueden trabajar como un equipo (o enjambre) en una operación utilizando solo instrucciones y una visión general de operaciones que llamamos plano. No están diseñados para una tarea estrecha; colaboran para resolver flujos de trabajo complejos, se adaptan a medida que cambian las condiciones y pasan a las personas cuando la situación requiere supervisión.
Por ejemplo, un equipo de agentes de gestión de inventario puede realizar todos los siguientes trabajos sin reconstruirlos desde cero, incluyendo: comunicarse con proveedores a través de correo electrónico, monitorear los niveles de inventario y señales de agotamiento, rastrear envíos y pedidos de compra, actualizar estados en varios sistemas, crear tickets de discrepancia para que los planificadores de inventario los aprueben, redistribuir inventario entre almacenes y consolidar informes de inventario.
Así que el cambio es en lugar de “chat más herramientas” o automatizaciones frágiles que se rompen a escala, las empresas pasan de construir agentes a ejecutarlos a escala.
A pesar del gran interés en AI agente, muchas organizaciones siguen atascadas en el modo de prueba. Desde lo que está viendo en despliegues reales, ¿cuáles son las principales razones por las que las empresas luchan para moverse desde la experimentación a la producción a escala?
Lo que estamos viendo es que la mayoría de las organizaciones no se quedan atascadas en el modo de prueba porque la idea es incorrecta; se quedan atascadas porque el entorno es hostil para escalar.
El primer bloqueador es el paisaje tecnológico empresarial fragmentado. Los flujos de trabajo abarcan muchas herramientas, los datos viven en varios lugares, y coser todo de manera confiable es difícil. Y AI agente a menudo se despliega como un complemento a herramientas existentes, en lugar de como una forma de replantear cómo debe funcionar el flujo de trabajo de extremo a extremo.
También hay un problema real de arquitectura y datos. Muchos proveedores de SaaS aún intentan bloquear los datos, lo que crea incompatibilidades y limita lo que los agentes pueden hacer realmente en varios sistemas. Y muchos equipos subestiman el hecho de que la mayoría de los datos empresariales son no estructurados (correos electrónicos, documentos, tickets, PDF, registros de chat). Si su enfoque asume datos limpios y estructurados, el tiempo de valor se vuelve largo, doloroso y difícil de replicar más allá del piloto.
En resumen: la fragmentación, el bloqueo y los datos no estructurados crean resistencia – y los pilotos nunca se convierten en producción hasta que esas realidades se diseñan.
La confiabilidad a menudo se cita como el mayor bloqueador para desplegar agentes de AI en el mundo real. ¿Por qué tantos sistemas de agentes fallan una vez que dejan entornos controlados, y cómo reduce Kovant problemas como alucinaciones y comportamiento impredecible?
Algunos sistemas de agentes parecen geniales en demos, luego fallan en el mundo real porque el entorno es desordenado e impredecible. Los datos son incompletos o inconsistentes, los casos de borde aparecen constantemente (reembolsos, disputas, aprobaciones especiales). Los flujos de trabajo abarcan múltiples herramientas, plataformas e integraciones que cambian con el tiempo, y los permisos varían. Cuando se le pide a un agente de AI que maneje una tarea grande y se le da demasiado contexto de una vez, el riesgo de alucinaciones y comportamiento extraño aumenta.
Kovant reduce esto por diseño. Nuestra arquitectura única reduce el espacio de problemas, el espacio de decisión y el contexto con el que los modelos trabajan para reducir las alucinaciones. También dividimos las operaciones en tareas estrechas y enfocadas para agentes y pasos individuales. Eso hace que el comportamiento sea más predecible, y agrega trazabilidad y controlabilidad al sistema y puede manejar las alucinaciones mejor. Podemos ver qué hizo cada agente, dónde comenzó un fracaso y intervenir o escalar cuando sea necesario.
Las alucinaciones no desaparecen mágicamente, pero al limitar lo que cada agente es responsable y limitar el contexto en el que puede actuar, podemos reducir su frecuencia y limitar su impacto. Este enfoque de “tarea/contexto estrecho” también ha sido respaldado en un trabajo reciente del equipo de investigación de Nvidia, que encontró beneficios similares al limitar la toma de decisiones de los agentes.
La rendición de cuentas es una preocupación importante a medida que los agentes de AI comienzan a tomar acciones reales en los sistemas empresariales. ¿Cómo cambian los registros de acciones detallados la conversación sobre confianza, cumplimiento y riesgo operativo?
Con registros de acciones detallados, podemos ver qué sucedió, por qué sucedió y qué sucede a continuación.
Los registros detallados convierten a un agente de un bot misterioso que trabaja en la máquina en un sistema que se puede inspeccionar.
En Kovant, con cualquier despliegue de agente de AI, habrá un mapa de riesgos que la organización puede actuar, hemos construido una puerta de enlace para humanos para acciones de riesgo que significa que los agentes solo pueden realizar esas tareas si un humano revisa y aprueba la decisión. Todo esto se registra de la misma manera que un sistema de registros se registra y es trazable.
Creemos que es importante combinar registros de acciones con supervisión humana y observabilidad para minimizar el riesgo. Significa que todavía obtienes los beneficios de velocidad y escala de los agentes que ejecutan operaciones reales.
Hay un creciente debate sobre si los agentes de AI incluso pueden ser asegurados debido a su toma de decisiones opaca. ¿Cómo hacer que los flujos de trabajo de los agentes sean auditables y reproducibles ayuda a abordar el problema de la “caja negra” y abre la puerta a la asegurabilidad?
El problema de la “caja negra” es lo que hace que la asegurabilidad sea difícil. Si no puedes mostrar claramente qué hizo un agente, por qué lo hizo y qué controles estaban en su lugar, es difícil para cualquiera, especialmente para los aseguradores, valorar el riesgo.
Nuestro enfoque es esencialmente una extensión de la configuración de rendición de cuentas en la respuesta anterior. Dividimos el alcance de la decisión y el impacto de las acciones en trozos más pequeños, para que el modelo no tome una sola decisión gigante y opaca que pueda cambiar toda una operación. Cada paso es más estrecho, más predecible y más fácil de evaluar.
Luego agregamos registros detallados, observabilidad y supervisión humana. Para las decisiones más importantes y de mayor impacto, usamos un guardián humano para que el agente solo pueda proceder después de la revisión y aprobación. Eso crea mucha más visibilidad en cómo se comporta el flujo de trabajo en la práctica.
Hacer que los flujos de trabajo sean auditables y reproducibles es la pieza final. Si algo sale mal, puedes reproducir lo que sucedió, investigarlo rápidamente, validar correcciones y demostrar cuán a menudo se requiere aprobación humana y dónde se encuentran las salvaguardias. En términos de subscripción, eso convierte el comportamiento de AI misterioso en algo más cercano al riesgo operativo estándar.
Con iniciativas como la Fundación de AI Agente que apuntan a crear estándares compartidos para sistemas de agentes, ¿qué aspectos más prometedores ve de estos esfuerzos, y dónde todavía fallan para operaciones empresariales reales?
La estandarización es generalmente algo bueno. La Fundación de AI Agente puede hacer el trabajo poco glamoroso pero esencial de hacer que los sistemas de agentes hablen el mismo lenguaje, lo que debería hacer que las integraciones sean más fáciles y reduzca el bloqueo de proveedores con el tiempo.
Donde soy cauteloso es desde qué perspectiva se dan forma a los estándares. Si la mayoría del trabajo es liderado por creadores de modelos y startups de tecnología, hay un riesgo de que los “estándares” optimicen lo que es más fácil de construir o demostrar, en lugar de lo que las grandes organizaciones realmente necesitan para ejecutar agentes de manera segura día a día.
Para operaciones empresariales reales, las brechas tienden a ser menos sobre conectores y más sobre control: qué puede acceder y cambiar un agente, flujos de trabajo de aprobación para acciones de alto impacto, registros auditables y observabilidad para que los equipos puedan monitorear el comportamiento, investigar incidentes y demostrar cumplimiento. Las empresas también necesitan estándares prácticos para operar en la realidad desordenada: probar contra casos de borde, manejar sistemas cambiantes y poder pausar, contener o revertir acciones de manera segura en entornos de herramientas y datos regulados.
Así que es una dirección prometedora, pero el impacto será limitado a menos que los requisitos y controles de riesgo operativo de la empresa no se traten como un pensamiento posterior.
Kovant ya ha generado ingresos significativos de grandes empresas nórdicas mientras opera en gran medida en sigilo. ¿Qué tipos de funciones comerciales o flujos de trabajo están demostrando ser los más listos para agentes de AI autónomos hoy en día?
Desde lo que hemos visto en despliegues reales, los flujos de trabajo más “listos” hoy en día son los que consisten en trabajo de cuello blanco reactivo: monitoreo, persecución, verificación, actualización de sistemas, manejo de excepciones y mantenimiento de las operaciones en marcha en varias herramientas.
En la fabricación y las cadenas de suministro empresariales más amplias, eso se muestra en:
- Adquisición/Compra: disponibilidad de materias primas, adquisición sostenible, operaciones de cumplimiento, selección de proveedores (incluyendo fuentes duales/múltiples), gestión de contratos, gestión de riesgos de proveedores y licitación/gestión de ofertas.
- Producción: planificación de capacidad, programación de producción, gestión de mantenimiento, gestión de calidad, gestión de cuellos de botella y prevención de pérdidas.
- Almacenamiento: recepción e inspección, gestión de inventario, rotación de stock (FIFO/FEFO) y conteo/auditoría de ciclos.
- Transporte / logística: selección de modo y portador, documentación y cumplimiento aduanero, seguimiento y visibilidad, monitoreo de emisiones y cumplimiento comercial.
- Ventas y servicio: disponibilidad de productos, prevención de agotamiento de stock, gestión de ventas/devoluciones, análisis de comportamiento del consumidor, además de áreas de posventa como reparaciones, seguimiento de fin de vida, operaciones de taller y contratos de servicio.
Cuando las empresas despliegan agentes de AI en operaciones críticas, ¿cómo recomienda equilibrar la autonomía con la supervisión humana para asegurar el control sin frenar todo?
El equilibrio está gobernado por la autonomía. Debes dejar que los agentes se muevan rápidamente en el trabajo de bajo riesgo dentro de guardias claras, y escalar a los humanos cuando la acción cruza un umbral de riesgo definido.
Muchos fracasos provienen de darle al modelo demasiado alcance y demasiado contexto de una vez. Recomiendo dividir las operaciones en decisiones más estrechas y con un impacto limitado, donde cada paso tenga permisos claros y un radio de impacto limitado. Eso reduce el comportamiento impredecible y hace que el rendimiento sea más fácil de monitorear y mejorar.
Luego combinas tres cosas: observabilidad, registros de acciones y puerta de enlace humana. Todo lo que el agente hace debe ser trazable, para que puedas inspeccionar lo que sucedió e investigar rápidamente. Para acciones de alto impacto o riesgo, pones un paso de aprobación humana en el flujo de trabajo, para que el agente pueda proponer y preparar, pero solo ejecutar una vez que una persona lo apruebe.
Eso mantiene las cosas en movimiento. Si algo, solo se ralentiza ligeramente en el paso de supervisión humana, pero eso es una parte importante del proceso. Los humanos no están atascados supervisando cada clic, pero todavía están en control de los momentos que importan. El resultado es velocidad donde es seguro, y supervisión donde es necesaria.
Mirando hacia adelante, ¿cómo espera que evolucione el papel de los agentes de AI autónomos dentro de las grandes organizaciones en los próximos años, y qué separará a las empresas que tienen éxito con AI agente de aquellas que luchan?
En los próximos años, los agentes de AI autónomos pasarán de experimentos interesantes a convertirse en una capa de operación real dentro de las grandes organizaciones. Se utilizarán para operaciones, servicio al cliente, finanzas y RRHH. A medida que mejora la confiabilidad, la gobernanza y la supervisión, veremos que las empresas pasan de pilotos aislados a ejecutar equipos de agentes en flujos de trabajo de extremo a extremo.
El mayor cambio es que la velocidad, la agilidad, la escala, la eficiencia y los costos se convertirán en una palanca competitiva directa. Creo que un “movimiento Uber” está llegando para las empresas. Las que verdaderamente dominen AI agente podrán operar a un ritmo fundamentalmente más rápido que los rezagados, capturar mercados más rápido y responder al cambio sin el arrastre operativo usual.
Lo que separa a los ganadores no es solo desplegar agentes, es desplegarlos bien. La autonomía gobernada, la observabilidad sólida y los registros de acciones, y las arquitecturas que reducen el alcance de la decisión serán clave para eso. Las empresas que traten AI agente como una capacidad operativa central, con los controles, la integración y la propiedad adecuados, utilizarán AI para hacer más, no menos. Eso liberará a los equipos para centrarse en el crecimiento y la innovación en lugar de pasar sus días enterrados en administración. En resumen, una velocidad y eficiencia radicales se convertirán en una ventaja competitiva real a escala empresarial.
Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar Kovant.












