Contáctenos

Ali Sarrafi, director ejecutivo y fundador de Kovant – Serie de entrevistas

Entrevistas

Ali Sarrafi, director ejecutivo y fundador de Kovant – Serie de entrevistas

mm

Alí Sarrafi, CEO y fundador de Kovant, es un experimentado ejecutivo de tecnología e IA con sede en Estocolmo, con una amplia trayectoria en la creación y el crecimiento de empresas de IA de alto crecimiento. Desde la fundación de Kovant a finales de 2024, ha acumulado una amplia experiencia en estrategia de IA empresarial, ejecución de salida al mercado y escalamiento operativo. Anteriormente, fue vicepresidente de estrategia en Silo AI tras su adquisición por AMD, donde fue responsable de definir la estrategia de IA empresarial e impulsar su adopción a gran escala. Anteriormente, cofundó Combient Mix, liderando la compañía a través de un rápido crecimiento y una exitosa adquisición por parte de Silo AI. Desde entonces, ha desempeñado funciones de asesoramiento y en consejos de administración en startups de educación e IA, lo que refleja un enfoque constante en convertir la IA avanzada en un impacto empresarial real.

Kovant Es una empresa de IA empresarial centrada en ayudar a las organizaciones a migrar del uso experimental de IA a procesos de negocio totalmente operativos y autónomos. Desarrolla una plataforma basada en agentes diseñada para orquestar equipos de agentes de IA en dominios operativos complejos como compras, cadenas de suministro, cumplimiento normativo y operaciones con clientes. Al priorizar una implementación segura y de nivel empresarial y una rápida generación de valor, Kovant se posiciona como un puente entre la ambición estratégica de IA y la ejecución diaria, ayudando a las grandes organizaciones a integrar la IA directamente en sus flujos de trabajo principales, en lugar de tratarla como una herramienta independiente o un proyecto piloto.

Lideró importantes iniciativas de IA en Spotify, expandió y desmanteló Combient Mix, y posteriormente diseñó la estrategia de IA empresarial en Silo AI antes de fundar Kovant. ¿Qué carencias o frustraciones específicas encontró en esos puestos que lo convencieron de que era el momento adecuado para crear una plataforma empresarial autónoma? ¿Cómo influyó esa experiencia en la filosofía de diseño central de Kovant?

En mis puestos anteriores, surgieron algunas deficiencias constantes. En primer lugar, la mayoría de las herramientas de IA "verticales" están prácticamente cautivas de una única pila de software: hacen una cosa ligeramente mejor dentro de ese límite, pero tienen dificultades cuando un flujo de trabajo debe abarcar varios sistemas. Al mismo tiempo, los datos empresariales están dispersos en muchas herramientas, y muchas soluciones de automatización simplemente no pueden acceder a ellos. Si a esto le sumamos años de integraciones puntuales, obtenemos la clásica arquitectura espagueti: la complejidad aumenta, el cambio se ralentiza y los equipos terminan automatizando pasos individuales en lugar de reimaginar el flujo de trabajo de principio a fin. El resultado es que el retorno de la inversión (ROI) suele ser más lento y menor de lo que las organizaciones esperan.

Kovant está diseñado como respuesta a esa realidad. Nuestra filosofía fundamental es que los agentes se comporten más como empleados: trabajan con múltiples herramientas, se les "contrata" para realizar tareas, no para automatizar una sola secuencia predefinida. Por eso se integran y orquestan, y por eso asumimos que los datos empresariales suelen ser desordenados y desestructurados: necesitan un enfoque más humano para gestionar las excepciones y la ambigüedad.

Utilizamos agentes de base para lograr velocidad y escala, al mismo tiempo que mantenemos la soberanía de los datos en primer plano: las empresas pueden acceder y usar sus propios datos de forma horizontal sin que estos salgan de sus instalaciones.

Kovant se posiciona como una plataforma empresarial autónoma capaz de gestionar operaciones y departamentos completos con agentes de IA. ¿Cómo define "autónomo" en un contexto empresarial y en qué se diferencia de las herramientas de automatización y agentes con las que las empresas ya están experimentando?

En un contexto empresarial, cuando decimos "autónomo" no nos referimos a "sin supervisión". Nos referimos a que los agentes de IA pueden realizar acciones reales de principio a fin en toda la operación con objetivos y límites claros, y escalarán a humanos cuando se requiera supervisión.

Lo que diferencia a Kovant son nuestros agentes base. En lugar de automatizar un proceso único y fijo o seguir una secuencia predefinida, los agentes de Kovant pueden trabajar en equipo (o enjambre) en una operación utilizando únicamente instrucciones y un resumen de operaciones que llamamos plan. No están diseñados para una tarea específica; colaboran para resolver flujos de trabajo complejos, se adaptan a las condiciones cambiantes y delegan tareas cuando la situación requiere supervisión.

Por ejemplo, un equipo de agentes de gestión de inventario puede realizar todos los siguientes trabajos sin tener que reconstruirlos desde cero, entre ellos: comunicarse con proveedores por correo electrónico, monitorear los niveles de inventario y las señales de falta de stock, rastrear envíos y órdenes de compra, actualizar estados en todos los sistemas, crear tickets de discrepancia para que los planificadores de inventario los aprueben, redistribuir el inventario entre almacenes y consolidar informes de inventario.

Por lo tanto, el cambio consiste en que, en lugar de “chat más herramientas” o automatizaciones frágiles que fallan a gran escala, las empresas pasan de crear agentes a ejecutarlos a gran escala.

A pesar del enorme interés en la IA agente, muchas organizaciones siguen estancadas en la fase piloto. A juzgar por lo que se observa en implementaciones reales, ¿cuáles son las principales razones por las que las empresas tienen dificultades para pasar de la experimentación a la producción a gran escala?

Lo que estamos viendo es que la mayoría de las organizaciones no se quedan estancadas en el modo piloto porque la idea sea errónea, sino porque el entorno es hostil a la escalabilidad.

El primer obstáculo es la fragmentación del panorama tecnológico empresarial. Los flujos de trabajo abarcan multitud de sistemas, los datos residen en múltiples ubicaciones y es difícil integrar todo de forma fiable. Además, la IA agente se suele implementar como complemento de las herramientas existentes, en lugar de como una forma de replantear cómo debería funcionar el flujo de trabajo de principio a fin.

También existe un verdadero problema de arquitectura y datos. Muchos proveedores de SaaS aún intentan bloquear los datos, lo que genera incompatibilidades y limita la capacidad de los agentes en los distintos sistemas. Además, muchos equipos subestiman que la mayoría de los datos empresariales no están estructurados (correos electrónicos, documentos, tickets, archivos PDF, registros de chat). Si su enfoque asume datos limpios y estructurados, la rentabilidad se vuelve larga, tediosa y difícil de replicar más allá del piloto.

En resumen: la fragmentación, el bloqueo y los datos no estructurados generan un lastre, y los proyectos piloto nunca pasan a producción hasta que se diseñan teniendo en cuenta esas realidades.

La fiabilidad se cita a menudo como el mayor obstáculo para el despliegue de agentes de IA en el mundo real. ¿Por qué fallan tantos sistemas de agentes al salir de entornos controlados y cómo reduce el enfoque de Kovant problemas como las alucinaciones y el comportamiento impredecible?

Algunos sistemas de agentes se ven geniales en demostraciones, pero luego fallan en el mundo real porque el entorno es caótico e impredecible. Los datos son incompletos o inconsistentes, y surgen casos extremos constantemente (reembolsos, disputas, aprobaciones especiales). Los flujos de trabajo abarcan múltiples herramientas, plataformas e integraciones que cambian con el tiempo, y los permisos varían. Cuando se le pide a un agente de IA que gestione una tarea extensa y se le proporciona demasiado contexto a la vez, aumenta el riesgo de alucinaciones y comportamientos extraños.

Kovant reduce esto por diseño. Nuestra arquitectura única reduce el espacio de problemas, el espacio de decisión y el contexto con el que trabajan los modelos para reducir las alucinaciones. Además, dividimos las operaciones en tareas específicas para cada agente y paso. Esto hace que el comportamiento sea más predecible, añade trazabilidad y controlabilidad al sistema y permite gestionar mejor las alucinaciones. Podemos ver qué hizo cada agente, dónde se originó un fallo e intervenir o escalar cuando sea necesario.

Las alucinaciones no desaparecen por arte de magia, pero al limitar la responsabilidad de cada agente y el contexto en el que puede actuar, podemos reducir su frecuencia y limitar su impacto. Este enfoque de "tarea/contexto acotado" también ha sido respaldado por un trabajo reciente del equipo de investigación de Nvidia, que encontró beneficios similares al limitar la toma de decisiones de los agentes.

La rendición de cuentas es una preocupación importante a medida que los agentes de IA comienzan a tomar medidas reales en los sistemas empresariales. ¿Cómo influyen los registros detallados de acciones en la conversación sobre confianza, cumplimiento normativo y riesgo operativo?

Con registros de acciones detallados podemos ver qué sucedió, por qué sucedió y qué sucederá después.

Los registros detallados transforman a un agente de un misterioso robot que trabaja en la máquina en un sistema que puedes inspeccionar.

En Kovant, con cualquier implementación de agente de IA, habrá un mapa de riesgos sobre el que la organización puede actuar. Hemos integrado un sistema de control de acceso para humanos en acciones de riesgo, lo que significa que los agentes solo pueden realizar esas tareas si un humano revisa y aprueba la decisión. Todo esto se registra de la misma manera que un sistema de registros y es rastreable.

Creemos que es importante combinar los registros de acciones con la supervisión y la capacidad de observación humanas para minimizar el riesgo. Esto significa que aún se obtienen los beneficios de velocidad y escalabilidad de los agentes que ejecutan operaciones reales.

Existe un creciente debate sobre si los agentes de IA pueden siquiera estar asegurados debido a la opacidad de su toma de decisiones. ¿Cómo la auditabilidad y reproducción de los flujos de trabajo de los agentes ayuda a abordar el problema de la "caja negra" y abre la puerta a la asegurabilidad?

El problema de la "caja negra" es lo que dificulta la asegurabilidad. Si no se puede demostrar claramente qué hizo un agente, por qué lo hizo y qué controles se implementaron, resulta difícil para cualquiera, especialmente para las aseguradoras, fijar el precio del riesgo.

Nuestro enfoque es esencialmente una extensión de la configuración de rendición de cuentas de la respuesta anterior. Dividimos el alcance de la decisión y el impacto de las acciones en partes más pequeñas, para que el modelo no tome una decisión gigantesca y opaca que pueda influir en toda la operación. Cada paso es más preciso, más predecible y más fácil de evaluar.

Luego, añadimos registros detallados, capacidad de observación y supervisión humana. Para las decisiones más importantes e impactantes, utilizamos un agente de control, de modo que el agente solo pueda proceder tras la revisión y aprobación. Esto proporciona mucha más visibilidad sobre el funcionamiento del flujo de trabajo en la práctica.

Lograr que los flujos de trabajo sean auditables y reproducibles es el punto final. Si algo sale mal, se puede reproducir lo sucedido, investigarlo rápidamente, validar las correcciones y demostrar con qué frecuencia se requiere la aprobación humana y dónde se encuentran las medidas de seguridad. En términos de suscripción, esto se convierte en... comportamiento misterioso de la IA en algo más cercano al riesgo operacional estándar.

Con iniciativas como la Fundación Agentic AI que apunta a crear estándares compartidos para sistemas agenticos, ¿cuáles considera que son los aspectos más prometedores de estos esfuerzos y en qué aspectos aún se quedan cortos para las operaciones empresariales reales?

La estandarización suele ser positiva. La AAIF puede realizar la tarea, poco atractiva pero esencial, de lograr que los sistemas de agentes hablen el mismo idioma, lo que debería facilitar las integraciones y reducir la dependencia de proveedores con el tiempo.

En lo que soy cauteloso es en qué perspectiva se basan los estándares. Si la mayor parte del trabajo lo lideran los creadores de modelos y las empresas tecnológicas en expansión, existe el riesgo de que los estándares se optimicen para lo más fácil de construir o demostrar, en lugar de lo que las grandes organizaciones realmente necesitan para operar agentes de forma segura a diario.

En las operaciones empresariales reales, las brechas tienden a centrarse menos en los conectores y más en el control: a qué puede acceder y modificar un agente, flujos de trabajo de aprobación para acciones de alto impacto, registros auditables y observabilidad para que los equipos puedan supervisar el comportamiento, investigar incidentes y comprobar el cumplimiento normativo. Las empresas también necesitan estándares prácticos para operar en una realidad compleja: realizar pruebas con casos extremos, gestionar sistemas cambiantes y poder pausar, contener o revertir acciones de forma segura en herramientas heredadas y entornos de datos regulados.

Por lo tanto, es una dirección prometedora, pero el impacto será limitado a menos que los requisitos empresariales y los controles de riesgo operativo no se traten como una cuestión de último momento.

Kovant ya ha generado ingresos significativos de grandes empresas nórdicas operando principalmente de forma oculta. ¿Qué tipos de funciones o flujos de trabajo empresariales están más preparados para los agentes autónomos de IA actualmente?

De lo que hemos visto en implementaciones reales, los flujos de trabajo más "preparados" hoy en día son los que se componen de trabajo de cuello blanco reactivo: monitorear, perseguir, verificar, actualizar sistemas, manejar excepciones y mantener las operaciones en movimiento a través de múltiples herramientas.

En el sector manufacturero y en las cadenas de suministro empresariales más amplias, esto se refleja en:

  • Abastecimiento/adquisiciones: disponibilidad de materias primas, abastecimiento sostenible, operaciones de cumplimiento, selección de proveedores (incluido el abastecimiento dual o múltiple), gestión de contratos, gestión de riesgos de proveedores y gestión de licitaciones/ofertas.
  • Producción:planificación de la capacidad, programación de la producción, gestión del mantenimiento, gestión de la calidad, gestión de cuellos de botella y prevención de pérdidas.
  • Almacenamiento :recepción e inspección, gestión de inventario, rotación de existencias (FIFO/FEFO) y recuento/auditoría cíclica.
  • Transporte / logística: selección de modo y transportista, despacho de aduanas/documentación, seguimiento y visibilidad, monitoreo de emisiones y cumplimiento comercial.
  • Ventas y servicio: disponibilidad de productos, prevención de desabastecimiento, gestión de ventas y devoluciones, análisis del comportamiento del consumidor, además de áreas de posventa como reparaciones, seguimiento del fin de vida útil, operaciones de taller y contratos de servicio.

Cuando las empresas implementan agentes de IA en operaciones críticas, ¿cómo recomienda equilibrar la autonomía con la supervisión humana para garantizar el control sin ralentizar todo?

El equilibrio reside en la autonomía regulada. Es necesario permitir que los agentes actúen con rapidez en tareas de bajo riesgo, dentro de límites claros, y escalar a los humanos cuando la acción supere un umbral de riesgo definido.

Muchos fallos se deben a que se le da al modelo demasiado alcance y contexto a la vez. Recomiendo dividir las operaciones en decisiones más pequeñas y de alcance limitado, donde cada paso tenga permisos claros y un radio de impacto limitado. Esto reduce el comportamiento impredecible y facilita la monitorización y mejora del rendimiento.

Luego, se combinan tres elementos: observabilidad, registros de acciones y control humano. Todo lo que hace el agente debe ser rastreable, para que se pueda inspeccionar lo sucedido e investigar con rapidez. Para acciones de alto impacto o riesgo, se incluye un paso de aprobación humana en el flujo de trabajo, de modo que el agente pueda proponer y preparar, pero solo se ejecute una vez que una persona lo autorice.

Eso mantiene el proceso en marcha rápidamente. Si acaso, solo se ralentiza ligeramente en el paso de la supervisión humana, pero esa es una parte importante del proceso. Los humanos no están obligados a supervisar cada clic, sino que aún controlan los momentos importantes. El resultado es velocidad donde es seguro y supervisión donde es necesaria.

De cara al futuro, ¿cómo espera que evolucione el papel de los agentes de IA autónomos dentro de las grandes organizaciones en los próximos años y qué diferenciará a las empresas que tengan éxito con la IA agente de aquellas que tengan dificultades?

En los próximos años, los agentes autónomos de IA pasarán de ser experimentos interesantes a convertirse en una verdadera capa operativa dentro de las grandes organizaciones. Se utilizarán para operaciones, atención al cliente, finanzas y RR. HH. A medida que mejoren la fiabilidad, la gobernanza y la supervisión, veremos cómo las empresas pasan de pilotos aislados a equipos de agentes operativos en flujos de trabajo integrales.

El mayor cambio es que la velocidad, la agilidad, la escala, la eficiencia y los costos se convertirán en una palanca competitiva mucho más directa. Creo que se avecina un "movimiento Uber" para las empresas. Quienes dominen la IA agéntica podrán operar a un ritmo mucho mayor que las rezagadas, conquistar mercados con mayor rapidez y responder al cambio sin las habituales dificultades operativas.

Lo que distingue a los ganadores no es solo la implementación de agentes, sino su correcta implementación. La autonomía gobernada, la sólida observabilidad y los registros de acciones, y las arquitecturas que limitan el alcance de las decisiones serán clave para ello. Las empresas que consideran la IA agentica como una capacidad operativa fundamental, con los controles, la integración y la propiedad adecuados, la utilizarán para lograr más, no menos. Esto permitirá a los equipos centrarse en el crecimiento y la innovación en lugar de dedicarse a tareas administrativas. En resumen, la velocidad y la eficiencia radicales se convierten en una verdadera ventaja competitiva a escala empresarial.

Gracias por la gran entrevista, los lectores que deseen obtener más información deben visitar Kovant.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Es un emprendedor en serie y cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablar maravillas sobre el potencial de las tecnologías disruptivas y la IA general.

Como titular de futurista, se dedica a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Valores.io, una plataforma centrada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y transformando sectores enteros.