Suivez nous sur

Série d'entretiens avec Manuel Romero, cofondateur et directeur scientifique de Maisa

Interviews

Série d'entretiens avec Manuel Romero, cofondateur et directeur scientifique de Maisa

mm

Manuel RomeroCofondateur et directeur scientifique de Maisa, Romero est chercheur et ingénieur en intelligence artificielle, spécialisé dans le développement de systèmes d'intelligence artificielle fiables pour les entreprises. Il a cofondé Maisa en 2024 afin de créer une IA responsable, capable d'exécuter des processus métier complexes avec transparence et contrôle. Avant de rejoindre Maisa, Romero a occupé des postes à responsabilité en ingénierie de l'IA et en apprentissage automatique au sein d'entreprises telles que Clibrain et Narrativa, où il s'est spécialisé dans le traitement automatique du langage naturel et les systèmes d'IA à grande échelle. Auparavant, il a travaillé comme ingénieur logiciel full-stack et spécialiste DevOps avant de se tourner vers la recherche et le développement en IA avancée, et de devenir un contributeur actif à l'écosystème de l'IA open source.

Maisa IA Maisa développe des « travailleurs numériques » autonomes, des agents d'IA conçus pour automatiser les flux de travail complexes des entreprises tout en garantissant la traçabilité, la gouvernance et la fiabilité. La plateforme permet aux organisations de créer et de déployer des agents d'IA utilisant le langage naturel, ce qui facilite l'automatisation des systèmes internes et des sources de données sans nécessiter de programmation poussée. En privilégiant le raisonnement vérifiable et l'exécution structurée, Maisa vise à surmonter les limitations courantes des systèmes d'IA génératifs et à aider les entreprises à déployer l'IA autonome à grande échelle en toute sécurité.

Vous vous êtes souvent intéressé à comprendre le « pourquoi » profond des systèmes d'IA. D'un point de vue technique, qu'est-ce qui vous a poussé à cofonder Maisa en 2024, et quelle lacune dans l'architecture de l'IA d'entreprise vous semblait, selon vous, non comblée ?

La motivation derrière la création de Maisa est née d'un constat : la plupart des piles d'IA d'entreprise étaient construites autour de modèles, et non de systèmes.

Durant l'essor de l'IA générative, de nombreuses entreprises se sont concentrées sur l'intégration de grands modèles de langage dans leurs flux de travail existants. Cependant, ces systèmes étaient souvent fragiles, opaques et difficiles à déployer à grande échelle. Ils présentaient notamment des lacunes :

  • Exécution déterministe là où c'était important.
  • forte observabilité, traçabilité
  • reproductibilité

Le problème que nous avons constaté était l'absence d'une véritable infrastructure d'IA pour les entreprises. Celles-ci développaient des applications autour des API LLM, mais il leur manquait un équivalent d'une architecture informatique dédiée au travail intellectuel.

Maisa a été créée pour combler cette lacune en concevant une architecture centrée sur l'unité de traitement des connaissances (KPU), un système qui permet à l'IA de fonctionner de manière fiable au sein de véritables flux de travail d'entreprise.

Vous avez travaillé dans le domaine du traitement automatique du langage naturel et des systèmes génératifs avant de fonder Maisa. Comment ces expériences ont-elles influencé les choix architecturaux de la plateforme ?

Mon expérience en traitement automatique du langage naturel (TALN) et en génération de langage naturel (GLN), notamment en matière d'entraînement et de pré-entraînement de modèles de langage, puis de grands modèles (plusieurs centaines), m'a permis de constater une chose essentielle lors de la conception de systèmes réels : l'architecture Transformer est extrêmement puissante, mais elle présente au moins trois limitations fondamentales qu'il est impératif de résoudre pour une utilisation fiable en production.

La première est celle des hallucinations. Ces modèles génèrent du texte de manière probabiliste et peuvent produire des résultats qui semblent corrects mais qui ne reposent pas sur des informations vérifiées.

La seconde limitation concerne le contexte. Même avec des fenêtres de contexte plus larges, les modèles fonctionnent dans un espace de jetons limité, ce qui rend difficile le raisonnement sur des ensembles de connaissances vastes ou complexes.

Le troisième point concerne l'information à jour. Les modèles pré-entraînés représentent un instantané des connaissances au moment de l'entraînement, tandis que les environnements d'entreprise nécessitent des systèmes capables de raisonner sur des informations en constante évolution.

La prise en compte de ces contraintes a profondément influencé les choix architecturaux de Maisa. Au lieu de nous appuyer uniquement sur le modèle, nous avons privilégié la conception d'un système offrant un accès structuré aux connaissances, des mécanismes de validation et une exécution contrôlée, permettant ainsi à l'IA de fonctionner de manière fiable dans les flux de travail réels des entreprises.

De nombreuses entreprises expérimentent l'IA générative, mais peinent à dépasser le stade des projets pilotes. Du point de vue de la conception des systèmes, quelle est la principale raison de l'échec de la mise à l'échelle dans tant d'organisations ?

De nombreuses entreprises peinent à dépasser le stade des projets pilotes d'IA générative, car la plupart des déploiements sont conçus comme des expérimentations plutôt que comme des systèmes robustes. Les premiers prototypes reposent souvent sur une ingénierie rapide, une orchestration légère et des pipelines de récupération simples, ce qui peut démontrer leur intérêt, mais ne garantit ni la fiabilité, ni l'observabilité, ni le contrôle nécessaires aux environnements de production. Lorsque les organisations tentent de faire évoluer ces systèmes, elles rencontrent des problèmes tels que des résultats incohérents, un manque de traçabilité, des difficultés d'intégration aux flux de travail de l'entreprise et une gouvernance limitée du comportement de l'IA. Fondamentalement, le problème réside dans le fait que les grands modèles de langage sont des générateurs probabilistes, tandis que les processus d'entreprise exigent un comportement prévisible et auditable. Sans une architecture structurant le raisonnement, la validation, l'exécution et la surveillance, les systèmes d'IA générative restent difficiles à déployer à grande échelle au-delà de cas d'utilisation isolés.

Les travailleurs numériques de Maisa sont conçus pour être auditables et structurés, et non pas purement probabilistes. Qu'est-ce que cela signifie concrètement pour les entreprises qui évaluent l'IA en vue d'une utilisation en production ?

Lorsque nous affirmons que les assistants numériques de Maisa sont auditables et structurés plutôt que purement probabilistes, nous entendons par là que l'IA opère au sein d'un système contrôlé où ses actions et son raisonnement sont traçables et gouvernés. Au lieu de laisser un modèle générer librement des résultats et des décisions, le système structure la manière dont l'IA interagit avec les données, les outils et les flux de travail. Chaque étape du processus peut être consignée, inspectée et validée, et les actions sont exécutées via des interfaces définies plutôt que directement à partir des résultats du modèle. Pour les entreprises, cela signifie que les systèmes d'IA peuvent être surveillés, audités et intégrés aux processus critiques avec une plus grande fiabilité. L'IA passe ainsi du statut d'assistant opaque à celui de système dont le comportement est compréhensible, contrôlé et digne de confiance en environnement de production.

En tant qu'architecte de l'unité de traitement des connaissances, en quoi diffère-t-elle d'une couche d'orchestration ou d'un moteur de flux de travail classique construit autour de grands modèles de langage ?

L'unité de traitement des connaissances (KPU) se distingue des couches d'orchestration classiques par sa capacité à gérer l'intégralité du cycle de vie du raisonnement piloté par l'IA, et non par sa simple coordination des requêtes et des appels de modèles. La plupart des frameworks d'orchestration fonctionnent comme des gestionnaires de flux de travail, enchaînant des étapes telles que la récupération, la génération de requêtes et l'exécution d'outils. La KPU opère à un niveau architectural plus profond, en structurant l'accès aux connaissances, le déroulement du raisonnement et l'exécution des actions au sein du système. Elle considère le traitement des connaissances comme une couche de calcul centrale, intégrant la mémoire, la validation et l'exécution contrôlée. Ainsi, l'IA peut fonctionner de manière fiable au sein de flux de travail d'entreprise complexes, et non se contenter de générer des réponses.

Dans les secteurs réglementés, la tolérance au risque est faible. Quelles décisions de conception spécifiques avez-vous prises pour garantir la fiabilité des résultats de l'IA et éviter la propagation des erreurs dans les flux de travail complexes ?

Dans les secteurs réglementés, la fiabilité et le contrôle sont essentiels. C'est pourquoi nous avons conçu le système avec plusieurs mécanismes de protection afin de garantir la fiabilité des résultats de l'IA. Un principe clé est l'exécution structurée : l'IA ne peut déclencher directement d'actions critiques sans passer par des interfaces contrôlées. Nous intégrons également des couches de validation qui vérifient les résultats du modèle par rapport à des schémas, des règles ou des mécanismes secondaires avant leur acceptation. De plus, le système assure une observabilité complète, en enregistrant les étapes de raisonnement, les interactions avec les outils et les décisions, permettant ainsi leur traçabilité et leur audit. Ensemble, ces choix de conception contribuent à prévenir la propagation des erreurs dans les flux de travail et permettent aux organisations d'exploiter des systèmes d'IA avec le niveau de fiabilité et de gouvernance requis dans les environnements réglementés.

Quels sont les premiers cas d'utilisation les plus convaincants où vous avez vu les travailleurs numériques passer d'une assistance guidée à une exécution pleinement opérationnelle pilotée par l'IA ?

Parmi les premiers cas d'utilisation les plus convaincants, on trouve les flux de travail à forte intensité de connaissances où les processus sont bien définis mais nécessitent néanmoins une analyse et une prise de décision approfondies. Dans des domaines tels que la vérification de la conformité, le support technique et la gestion des connaissances internes, les assistants numériques peuvent aller au-delà de la simple assistance aux humains et exécuter des tâches structurées de bout en bout. Ils peuvent extraire et analyser de grands volumes d'informations internes, appliquer des procédures définies, interagir avec les systèmes d'entreprise via des outils contrôlés et produire des résultats alimentant directement les flux de travail opérationnels. Le changement fondamental s'opère lorsque l'IA ne se contente plus de générer des suggestions, mais est capable d'exécuter de manière fiable des actions définies au sein d'un système gouverné, permettant ainsi aux organisations d'automatiser certaines parties de tâches complexes liées aux connaissances plutôt que de simplement les compléter.

Face à l'intensification du contrôle réglementaire de l'IA à l'échelle mondiale, comment voyez-vous l'évolution des infrastructures d'IA de base pour répondre aux exigences de conformité sans limiter l'innovation ?

Face à la surveillance réglementaire croissante de l'IA, je pense que nous assisterons à un changement de paradigme : les architectures qui se contentent d'appeler les API des fournisseurs de modèles et de faire aveuglément confiance à leurs résultats vont disparaître. Les entreprises et les organismes de réglementation exigeront de plus en plus des systèmes où le comportement de l'IA est observable, auditable et encadré. C'est là que des architectures comme l'Unité de Traitement des Connaissances (KPU) prennent toute leur importance. Ce type d'architecture permet aux organisations de mettre en place des contrôles, de suivre les décisions et de garantir la fiabilité des résultats de l'IA avant qu'ils n'influencent les processus opérationnels. À terme, je m'attends à ce que ces systèmes deviennent la norme pour une infrastructure d'IA fiable.

Vous avez évoqué l'éthique et la responsabilité en parallèle de votre travail technique. Comment ces perspectives influencent-elles votre approche de la conception de systèmes d'IA transparents ?

Pour moi, l'éthique et la responsabilité se traduisent directement dans les choix de conception des systèmes. Si les systèmes d'IA doivent participer à des flux de travail opérationnels réels, ils ne peuvent pas fonctionner comme des boîtes noires opaques dont le comportement est impossible à inspecter ou à comprendre. Cette perspective a fortement influencé ma manière d'aborder la conception des systèmes d'IA. La transparence, la traçabilité et la supervision humaine doivent être intégrées à l'architecture dès le départ. Cela implique de garantir que les étapes de raisonnement sont observables, que les décisions sont auditables et que les actions sont exécutées par des mécanismes contrôlés. Lorsque ces principes sont intégrés au niveau de l'infrastructure, les systèmes d'IA deviennent non seulement plus fiables, mais aussi plus faciles à gouverner de manière responsable pour les organisations.

Pour l'avenir, pensez-vous que l'infrastructure d'IA agentielle deviendra aussi fondamentale que l'a été l'infrastructure cloud au cours de la décennie précédente ? Et que faut-il faire sur le plan technique pour que cette transition se concrétise ?

Je suis convaincu que l'infrastructure d'IA agentique a le potentiel de devenir aussi fondamentale que l'infrastructure cloud l'est devenue au cours de la dernière décennie. À mesure que les organisations cherchent à automatiser des tâches intellectuelles de plus en plus complexes, elles auront besoin de systèmes capables de coordonner de manière fiable le raisonnement, la mémorisation et l'exécution à travers de nombreuses tâches et sources de données. Cependant, pour que cette transformation se concrétise, l'architecture sous-jacente doit aller au-delà de la simple intégration de modèles. Nous avons besoin d'une infrastructure qui fournisse un raisonnement structuré, un accès fiable aux connaissances de l'entreprise, une forte observabilité et une exécution contrôlée des actions. Lorsque ces capacités sont intégrées au système central, l'IA agentique peut évoluer d'outils expérimentaux à une infrastructure fiable sur laquelle les organisations s'appuient pour mener à bien leurs opérations critiques.

Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter Maisa IA.

Antoine est un leader visionnaire et partenaire fondateur d'Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et on le surprend souvent en train de s'extasier sur le potentiel des technologies disruptives et de l'AGI.

En futuriste, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. En outre, il est le fondateur de Titres.io, une plateforme axée sur l’investissement dans les technologies de pointe qui redéfinissent l’avenir et remodèlent des secteurs entiers.