Connect with us

Ali Sarrafi, PDG et fondateur de Kovant – Série d’entretiens

Entretiens

Ali Sarrafi, PDG et fondateur de Kovant – Série d’entretiens

mm

Ali Sarrafi, PDG et fondateur de Kovant, est un dirigeant chevronné dans le domaine de la technologie et de l’IA basé à Stockholm, avec une expérience éprouvée dans la construction et la mise à l’échelle de sociétés de haute croissance dans le domaine de l’IA. Depuis la fondation de Kovant à la fin de 2024, il a puisé dans son expérience approfondie en stratégie d’IA d’entreprise, en exécution de lancement sur le marché et en mise à l’échelle opérationnelle. Auparavant, il a occupé le poste de vice-président de la stratégie chez Silo AI après son acquisition par AMD, où il était responsable de l’élaboration de la stratégie d’IA d’entreprise et de la promotion de l’adoption à grande échelle. Plus tôt dans sa carrière, il a co-fondé Combient Mix, menant l’entreprise à une croissance rapide et à une acquisition réussie par Silo AI, et a depuis occupé des postes consultatifs et de conseil d’administration dans le domaine de l’éducation et des startups d’IA, reflétant une focalisation constante sur la traduction de l’IA avancée en un impact commercial réel.

Kovant est une société d’IA d’entreprise qui se concentre sur la capacité des organisations à passer d’une utilisation expérimentale de l’IA à des processus métier autonomes et entièrement opérationnels. La société développe une plate-forme basée sur des agents conçue pour orchestrer des équipes d’agents d’IA à travers des domaines opérationnels complexes tels que la passation des marchés, les chaînes d’approvisionnement, la conformité et les opérations client. En mettant l’accent sur le déploiement sécurisé de niveau entreprise et le temps de retour sur investissement rapide, Kovant se positionne comme un pont entre l’ambition stratégique de l’IA et l’exécution quotidienne, aidant les grandes organisations à intégrer directement l’IA dans leurs flux de travail principaux plutôt que de la traiter comme un outil autonome ou un projet pilote.

Vous avez dirigé d’importants projets d’IA chez Spotify, vous avez fait croître et quitté Combient Mix, puis vous avez élaboré la stratégie d’IA d’entreprise chez Silo AI avant de fonder Kovant. Quels sont les écarts ou les frustrations spécifiques que vous avez rencontrés dans ces rôles qui vous ont convaincu que le moment était venu de construire une plate-forme d’entreprise autonome, et comment cette histoire a façonné la philosophie de conception fondamentale de Kovant ?

À travers mes précédents rôles, plusieurs écarts constants sont apparus. Premièrement, la plupart des outils d’IA « verticaux » sont effectivement prisonniers d’une seule pile logicielle : ils font une chose légèrement mieux à l’intérieur de cette limite, mais luttent dès qu’un flux de travail nécessite de s’étendre à plusieurs systèmes. Dans le même temps, les données d’entreprise sont dispersées dans de nombreux outils, et de nombreuses solutions d’automatisation ne peuvent simplement pas y accéder. Ajoutez des années d’intégrations ponctuelles et vous obtenez une architecture classique de type « spaghetti » : la complexité augmente, les changements se font plus lentement, et les équipes se retrouvent à automatiser des étapes individuelles plutôt que de réimaginer le flux de travail de bout en bout. Le résultat est que le retour sur investissement arrive souvent plus lentement – et plus petit – que les organisations ne l’attendent.

Kovant est conçu comme une réponse à cette réalité. Notre philosophie fondamentale est que les agents devraient se comporter plus comme des employés : ils travaillent sur plusieurs outils, ils sont « embauchés » pour faire des tâches, et non pour automatiser une seule séquence scriptée. C’est pourquoi les intégrations et l’orchestration sont intégrées, et pourquoi nous supposons que les données d’entreprise sont souvent désorganisées et non structurées – elles nécessitent une approche plus humaine pour gérer les exceptions et l’ambiguïté.

Nous utilisons des agents de base pour atteindre la vitesse et la mise à l’échelle, tout en gardant la souveraineté des données au premier plan : les entreprises peuvent accéder et utiliser leurs propres données de manière horizontale sans quitter leurs locaux.

Kovant se positionne comme une plate-forme d’entreprise autonome capable de faire fonctionner l’ensemble des opérations et des départements avec des agents d’IA. Comment définissez-vous « autonome » dans un contexte d’entreprise, et comment cela diffère-t-il de l’automatisation et des outils d’agents que les sociétés expérimentent déjà aujourd’hui ?

Dans un contexte d’entreprise, lorsque nous disons « autonome », nous n’entendons pas « non supervisé ». Nous voulons dire que les agents d’IA peuvent prendre de véritables actions de bout en bout sur une opération avec des objectifs clairs et des garde-fous, et qu’ils escaladeront vers les humains lorsque la supervision est nécessaire.

Ce qui rend Kovant différent, ce sont nos agents de base. Plutôt que d’automatiser un processus fixe ou de suivre une séquence préconstruite, les agents de Kovant peuvent travailler en équipe (ou en essaim) sur une opération en utilisant simplement des instructions et une vue d’ensemble des opérations que nous appelons une feuille de route. Ils ne sont pas conçus pour une seule tâche étroite ; ils collaborent pour résoudre des flux de travail complexes, s’adaptent aux changements de conditions et passent à l’échelle humaine lorsque la situation nécessite une surveillance.

Par exemple, une équipe d’agents de gestion des stocks peut effectuer toutes les tâches suivantes sans les reconstruire à partir de zéro, notamment : communiquer avec les fournisseurs par e-mail, surveiller les niveaux de stock et les signaux de rupture de stock, suivre les livraisons et les commandes d’achat, mettre à jour les statuts à travers les systèmes, créer des tickets de discordance pour que les planificateurs d’inventaire les approuvent, redistribuer les stocks entre les entrepôts et consolider les rapports d’inventaire.

Ainsi, le changement est que plutôt que « chat plus outils » ou des automatisations fragiles qui se brisent à l’échelle, les entreprises passent de la construction d’agents à leur exécution à l’échelle.

Malgré l’intérêt massif pour l’IA agente, de nombreuses organisations restent bloquées en mode pilote. D’après ce que vous voyez dans les déploiements réels, quels sont les principaux motifs pour lesquels les sociétés ont du mal à passer de l’expérimentation à la production à grande échelle ?

Ce que nous voyons, c’est que la plupart des organisations ne restent pas bloquées en mode pilote parce que l’idée est mauvaise ; elles restent bloquées parce que l’environnement est hostile à la mise à l’échelle.

Le premier bloqueur est le paysage technologique d’entreprise fragmenté. Les flux de travail s’étendent sur de nombreux systèmes, les données vivent dans plusieurs endroits, et assembler tout cela de manière fiable est difficile. Et l’IA agente est souvent déployée comme un ajout aux outils existants, plutôt que comme un moyen de réimaginer la façon dont le flux de travail devrait fonctionner de bout en bout.

Il y a également un véritable problème d’architecture et de données. De nombreux fournisseurs de logiciels SaaS essaient encore de verrouiller les données, ce qui crée des incompatibilités et limite ce que les agents peuvent réellement faire à travers les systèmes. Et de nombreuses équipes sous-estiment le fait que la plupart des données d’entreprise sont non structurées (e-mails, documents, tickets, PDF, journaux de chat). Si votre approche suppose des données propres et structurées, le temps de retour sur investissement devient long, douloureux et difficile à reproduire au-delà du pilote.

En résumé : la fragmentation, le verrouillage et les données non structurées créent un frein – et les pilotes ne se transforment jamais en production jusqu’à ce que ces réalités soient conçues pour.

La fiabilité est souvent citée comme le plus grand obstacle au déploiement d’agents d’IA dans le monde réel. Pourquoi de nombreux systèmes d’agents échouent-ils une fois qu’ils quittent les environnements contrôlés, et comment l’approche de Kovant réduit les problèmes tels que les hallucinations et les comportements imprévisibles ?

Certains systèmes d’agents semblent très bons dans les démonstrations, puis échouent dans le monde réel parce que l’environnement est désorganisé et imprévisible. Les données sont incomplètes ou incohérentes, des cas limites apparaissent constamment (remboursements, litiges, approbations spéciales). Les flux de travail s’étendent sur plusieurs outils, plateformes et intégrations qui changent avec le temps, et les autorisations varient. Lorsqu’un agent d’IA est chargé de gérer une tâche importante et reçoit trop de contexte à la fois, le risque d’hallucinations et de comportement étrange augmente.

Kovant réduit cela par conception. Notre architecture unique réduit l’espace de problème, l’espace de décision et le contexte avec lesquels les modèles fonctionnent pour réduire les hallucinations. Nous cassons également les opérations en tâches étroites et ciblées pour les agents et les étapes individuelles. Cela rend le comportement plus prévisible et ajoute de la traçabilité et de la contrôlabilité dans le système et peut gérer les hallucinations de manière plus efficace. Nous pouvons voir ce que chaque agent a fait, où une défaillance a commencé et intervenir ou escalader lorsque nécessaire.

Les hallucinations ne disparaissent pas magiquement, mais en limitant ce pour quoi chaque agent est responsable et en limitant le contexte sur lequel il peut agir, nous pouvons réduire leur fréquence et limiter leur impact. Cette approche « tâche/contexte étroite » a également été soutenue par des travaux récents de l’équipe de recherche de Nvidia, qui a trouvé des avantages similaires en limitant la prise de décision des agents.

La responsabilité est une préoccupation majeure à mesure que les agents d’IA commencent à prendre des actions réelles dans les systèmes d’entreprise. Comment les journaux d’actions détaillés modifient-ils la conversation autour de la confiance, de la conformité et du risque opérationnel ?

Avec des journaux d’actions détaillés, nous pouvons voir ce qui s’est passé, pourquoi cela s’est passé et ce qui se passe ensuite.

Les journaux détaillés transforment un agent d’un mystérieux bot travaillant dans la machine en un système que l’on peut inspecter.

Chez Kovant, avec tout déploiement d’agent d’IA, il y aura une carte de risque que l’organisation peut agir, nous avons un gardiennage intégré pour les humains pour les actions à risque qui signifie que les agents ne peuvent effectuer ces tâches que si un humain examine et approuve la décision. Tout cela est consigné de la même manière qu’un système d’enregistrement est consigné et est traçable.

Nous croyons qu’il est important de combiner les journaux d’actions avec une surveillance humaine et une observabilité pour minimiser le risque. Cela signifie que vous obtenez toujours les avantages de vitesse et de mise à l’échelle des agents qui exécutent de véritables opérations.

Il y a un débat croissant sur la question de savoir si les agents d’IA peuvent même être assurés en raison de leur prise de décision opaque. Comment le fait de rendre les flux de travail des agents auditable et reproductible aide-t-il à résoudre le problème de la « boîte noire » et à ouvrir la porte à l’assurabilité ?

Le problème de la « boîte noire » est ce qui rend l’assurabilité difficile. Si vous ne pouvez pas clairement montrer ce qu’un agent a fait, pourquoi il l’a fait et quels contrôles étaient en place, il est difficile pour quiconque, en particulier les assureurs, de tarifer le risque.

Notre approche est essentiellement une extension de la configuration de responsabilité dans la réponse précédente. Nous cassons la portée de la décision et l’impact des actions en morceaux plus petits, de sorte que le modèle ne prend pas une décision géante et opaque qui peut faire basculer toute une opération. Chaque étape est plus étroite, plus prévisible et plus facile à évaluer.

Nous ajoutons ensuite des journaux détaillés, une observabilité et une surveillance humaine. Pour les décisions les plus importantes et les plus impactantes, nous utilisons un gardien humain pour que l’agent ne puisse procéder qu’après examen et approbation. Cela crée une visibilité bien plus grande dans la façon dont le flux de travail se comporte dans la pratique.

Le fait de rendre les flux de travail auditable et reproductible est la dernière pièce. Si quelque chose se passe mal, vous pouvez reproduire ce qui s’est passé, enquêter rapidement, valider les correctifs et démontrer combien d’approbations humaines sont nécessaires et où se trouvent les sauvegardes. En termes d’underwriting, cela transforme le comportement mystérieux de l’IA en quelque chose de plus proche du risque opérationnel standard.

Avec des initiatives comme la Fondation Agentic AI visant à créer des normes partagées pour les systèmes agents, quels sont les aspects les plus prometteurs de ces efforts, et où manquent-ils encore pour les opérations d’entreprise réelles ?

La normalisation est généralement une bonne chose. La Fondation Agentic AI peut effectuer le travail ingrat mais essentiel pour faire en sorte que les systèmes d’agents parlent le même langage, ce qui devrait faciliter les intégrations et réduire le verrouillage des fournisseurs avec le temps.

Où je suis prudent, c’est sur la perspective qui façonne les normes. Si la plupart des travaux sont menés par les créateurs de modèles et les startups technologiques, il y a un risque que les « normes » optimisent pour ce qui est le plus facile à construire ou à démontrer, plutôt que pour ce dont les grandes organisations ont réellement besoin pour exécuter des agents en toute sécurité au quotidien.

Pour les opérations d’entreprise réelles, les lacunes tendent à être moins liées aux connecteurs et plus au contrôle : ce à quoi un agent peut accéder et modifier, les flux de travail d’approbation pour les actions à impact élevé, les journaux d’actions auditable et l’observabilité pour que les équipes puissent surveiller le comportement, enquêter sur les incidents et prouver la conformité. Les entreprises ont également besoin de normes pratiques pour opérer dans la réalité désorganisée : tester contre les cas limites, gérer les changements de systèmes et être en mesure de suspendre, de contenir ou de rétablir les actions en toute sécurité à travers les outils et les environnements de données réglementés.

Il s’agit donc d’une direction prometteuse, mais l’impact sera limité à moins que les exigences des entreprises et les contrôles de risque opérationnel ne soient traités comme une afterthought.

Kovant a déjà généré des revenus importants auprès de grandes entreprises nordiques tout en opérant principalement en secret. Quels types de fonctions métier ou de flux de travail se révèlent les plus prêts pour les agents d’IA autonomes aujourd’hui ?

D’après ce que nous avons vu dans les déploiements réels, les flux de travail les plus « prêts » aujourd’hui sont ceux constitués de travail de col blanc réactif : surveillance, poursuite, vérification, mise à jour des systèmes, gestion des exceptions et maintien des opérations à travers plusieurs outils.

Dans la fabrication et les chaînes d’approvisionnement d’entreprise plus larges, cela se manifeste à travers :

  • Approvisionnement/Passation des marchés : disponibilité des matières premières, approvisionnement durable, opérations de conformité, sélection des fournisseurs (y compris la dualité/multi-sourcing), gestion des contrats, gestion des risques des fournisseurs et appel d’offres.
  • Production : planification de la capacité, planification de la production, gestion de la maintenance, gestion de la qualité, gestion des goulots d’étranglement et prévention des pertes.
  • Entrepôt : réception et inspection, gestion des stocks, rotation des stocks (FIFO/FEFO) et comptage/dénombrement cyclique.
  • Transport / logistique : sélection du mode et du transporteur, dédouanement/document, suivi et visibilité, surveillance des émissions et conformité commerciale.
  • Ventes et service : disponibilité des produits, prévention des ruptures de stock, gestion des ventes/retours, analyse du comportement des consommateurs, ainsi que les domaines après-vente tels que les réparations, le suivi de la fin de vie, les opérations d’atelier et les contrats de service.

Lorsque les entreprises déployent des agents d’IA sur des opérations critiques, comment recommandez-vous d’équilibrer l’autonomie avec la surveillance humaine pour assurer le contrôle sans ralentir tout ?

L’équilibre est régi par l’autonomie. Vous devez laisser les agents bouger rapidement sur les travaux à faible risque dans des garde-fous clairs et les faire escalader vers les humains lorsque l’action franchit un seuil de risque défini.

De nombreuses défaillances proviennent du fait de donner au modèle une portée trop large et un contexte trop important à la fois. Je recommande de casser les opérations en décisions étroites et ciblées, où chaque étape a des autorisations claires et un rayon d’impact limité. Cela réduit le comportement imprévisible et rend les performances plus faciles à surveiller et à améliorer.

Ensuite, vous combinez trois choses : l’observabilité, les journaux d’actions et la surveillance humaine. Tout ce que fait l’agent doit être traçable, afin que vous puissiez inspecter ce qui s’est passé et enquêter rapidement. Pour les actions à impact élevé ou risquées, vous placez une étape d’approbation humaine dans le flux de travail, afin que l’agent puisse proposer et préparer, mais n’exécute qu’une fois qu’une personne a approuvé.

Cela maintient les choses en mouvement rapidement. Si cela ne ralentit que légèrement à l’étape de surveillance humaine, c’est une partie importante du processus. Les humains ne sont pas coincés dans la surveillance de chaque clic, mais ils sont toujours en contrôle des moments qui comptent. Le résultat est une vitesse où il est sécuritaire et une surveillance là où elle est nécessaire.

En regardant vers l’avenir, comment prévoyez-vous que le rôle des agents d’IA autonomes évoluera au sein des grandes organisations au cours des prochaines années, et qu’est-ce qui distinguera les sociétés qui réussissent avec l’IA agente de celles qui peinent ?

Au cours des prochaines années, les agents d’IA autonomes passeront d’expériences intéressantes à devenir une véritable couche opérationnelle au sein des grandes organisations. Ils seront utilisés pour les opérations, le service client, la finance et les RH. À mesure que la fiabilité, la gouvernance et la surveillance s’améliorent, nous verrons les entreprises passer d’essais isolés à l’exécution d’équipes d’agents sur des flux de travail de bout en bout.

Le plus grand changement est que la vitesse, l’agilité, la mise à l’échelle, l’efficacité et les coûts deviendront un levier de compétition directe. Je pense qu’un « mouvement Uber » est en train d’arriver pour les entreprises. Ceux qui maîtrisent vraiment l’IA agente seront en mesure d’opérer à un rythme fondamentalement plus élevé que les retardataires, de capturer les marchés plus rapidement et de répondre aux changements sans le frein opérationnel habituel.

Ce qui distingue les gagnants, ce n’est pas seulement le déploiement d’agents, c’est le déploiement de ceux-ci de manière efficace. L’autonomie régie, une forte observabilité et des journaux d’actions, ainsi que des architectures qui réduisent la portée de la décision, seront clés pour cela. Les sociétés qui traitent l’IA agente comme une capacité opérationnelle de base, avec les contrôles, l’intégration et la propriété appropriés, l’utiliseront pour faire plus, et non moins. Cela libérera les équipes pour se concentrer sur la croissance et l’innovation plutôt que de passer leurs journées à être enterrées dans l’administration. En bref, une vitesse et une efficacité radicales deviendront un véritable avantage concurrentiel à l’échelle de l’entreprise.

Je vous remercie pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter Kovant.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.