Interviews
Michael Majster, Partner at Arthur D. Little – Interview Series

Michael Majster, Partner at Arthur D. Little, est un consultant en stratégie et technologie chevronné avec une expertise approfondie en transformation numérique, stratégie IT et croissance pilotée par l’innovation. Basé à Bruxelles et travaillant dans la région Benelux, il apporte plus de deux décennies d’expérience dans la conseil aux DSI et aux dirigeants pour conduire des changements à grande échelle et obtenir des résultats commerciaux mesurables. Avant de rejoindre Arthur D. Little, il a passé 16 ans chez Accenture, où il a occupé des postes de direction, notamment celui de directeur général des ressources technologiques en France et dans la région Benelux, et a développé une solide expertise sectorielle dans les domaines de l’énergie, des services publics, de la chimie et des ressources naturelles.
Arthur D. Little est l’une des plus anciennes firmes de conseil en management au monde, fondée il y a plus de 135 ans et largement reconnue pour son accent sur l’innovation, la stratégie et la transformation technologique. La firme travaille avec des organisations mondiales pour résoudre des défis commerciaux complexes, en combinant des insights stratégiques avec une expertise approfondie de l’industrie pour soutenir des domaines tels que la transformation numérique, la gestion de l’innovation et l’amélioration opérationnelle. Avec un fort accent sur le rapprochement de la stratégie, de la technologie et de l’exécution, Arthur D. Little a construit une réputation pour aider les clients à développer des innovations de rupture et à s’adapter à l’évolution rapide de la dynamique du marché.
Vous avez passé plus de 16 ans chez Accenture, dirigeant finalement la technologie et les ressources dans la région Benelux et en France, avant de devenir associé chez Arthur D. Little. Comment ce parcours a-t-il façonné votre perspective sur ce qu’il faut vraiment pour que les organisations passent de l’expérimentation avec l’IA à une transformation opérationnelle à grande échelle ?
Pendant mon temps chez Accenture, j’ai vu l’entreprise passer de 30 000 à plus de 500 000 employés. J’ai constaté de visu comment la prestation de services IT peut être industrialisée à un degré extrême pour soutenir des transformations à grande échelle pour les DSI.
Cependant, au fil des ans, l’informatique est de plus en plus devenue une partie intégrante de l’entreprise, ce qui entraîne un besoin pour les organisations de cesser de la traiter comme une commodité.
En passant à Arthur D. Little, je voulais explorer comment ces transformations stratégiques du cœur de l’entreprise pourraient être traitées de l’intérieur, comment des solutions sur mesure plutôt que des plateformes standardisées pourraient mieux permettre la différenciation, et comment la coresponsabilité de l’ensemble de l’équipe de direction pourrait aider les organisations à faire un saut en termes de création de valeur.
Dans votre récent point de vue, Il ne s’agit pas d’agents, mais de système, vous soutenez que l’IA multi-agents est moins une question de technologie et plus une question de changement de modèle opérationnel. Pourquoi pensez-vous que tant d’organisations abordent encore l’IA principalement comme un problème d’outillage ?
Les organisations abordent l’IA comme un problème d’outillage parce que cela s’intègre parfaitement dans les structures existantes, les budgets et la propriété, en évitant la complexité du changement transversal. Cela permet des pilotes rapides et des progrès visibles, mais aboutit souvent à des initiatives qui échouent à évoluer ou à livrer un ROI significatif. De nombreux dirigeants s’appuient également sur des modèles mentaux de logiciels hérités, en supposant que l’IA peut être déployée comme des systèmes IT traditionnels plutôt que nécessiter une révision des flux de travail et de la prise de décision. Dans le même temps, la responsabilité du changement de modèle opérationnel est diffuse et plus difficile à gérer, ce qui rend les initiatives axées sur la technologie plus attrayantes. En conséquence, les entreprises font défaut aux outils parce que c’est plus facile et plus sûr que de confronter la transformation plus profonde nécessaire pour débloquer la pleine valeur de l’IA.
De nombreuses entreprises expérimentent actuellement avec l’IA agente mais peinent à passer à l’échelle. Quels sont les principaux obstacles structurels qui empêchent les organisations de passer des pilotes à la production ?
Les organisations peinent à évoluer l’IA agente parce qu’elles se concentrent sur des cas d’utilisation isolés plutôt que sur la révision de processus de bout en bout avec une propriété claire. Les modèles opérationnels ne sont souvent pas adaptés, avec des rôles, des droits de décision et une intégration insuffisante de la collaboration humaine-agents dans les flux de travail quotidiens. De nombreuses initiatives manquent également de liens solides avec des résultats commerciaux mesurables, ce qui les fait stagner dans les phases de pilote sans démontrer de ROI. De plus, les données fragmentées et les systèmes hérités limitent la capacité des agents à fonctionner de manière transparente entre les fonctions. Enfin, une faible gestion du changement et des préoccupations de gouvernance non résolues en matière de risque et de fiabilité ralentissent encore l’adoption et empêchent l’évolution.
Vous insistez sur le fait que l’orchestration, et non les agents individuels, est où se trouve la véritable valeur. Qu’est-ce que l’orchestration efficace ressemble-t-elle dans un environnement d’entreprise réel ?
L’orchestration efficace signifie concevoir l’IA autour de processus métier de bout en bout, et non d’outils individuels, avec des agents assignés des rôles clairs dans l’ensemble du flux de travail. De multiples agents collaborent comme une équipe pour gérer la prise en charge, la prise de décision, l’exécution et la supervision – coordonnés par une couche d’orchestration centrale. Ces agents sont étroitement intégrés aux systèmes d’entreprise via des API et des sources de données, permettant des actions réelles plutôt que des insights seuls. La couche d’orchestration gère également la séquence des tâches, les exceptions et l’escalade vers les humains, garantissant une exécution fluide et contrôlée. Enfin, des mécanismes de gouvernance, de validation et de rétroaction solides sont intégrés pour assurer la fiabilité et l’amélioration continue.
À mesure que les organisations réaménagent les flux de travail autour de l’IA, comment les droits de décision devraient-ils évoluer entre les humains et les systèmes autonomes pour éviter à la fois la sur-automatisation et les goulets d’étranglement ?
Les droits de décision devraient évoluer vers un modèle basé sur le risque, où les décisions à faible risque et à forte volumétrie sont automatisées, tandis que les cas à forte incidence ou incertains restent sous contrôle humain. Les agents devraient gérer la perception, l’analyse et l’exécution, tandis que les humains se concentrent sur le jugement, les exceptions et la définition des résultats corrects. Des voies d’escalade claires sont essentielles pour que les agents sachent quand déléguer les décisions plutôt que de dépasser leur autorité. Pour éviter les goulets d’étranglement, l’intervention humaine devrait être sélective et axée sur les exceptions plutôt que sur la surveillance de chaque étape. Dans le même temps, des garde-fous solides, des mécanismes de validation et de surveillance empêchent la sur-automatisation.
L’un de vos points clés est que la fiabilité doit être conçue de bout en bout. Quels sont les principaux modes de défaillance que vous constatez aujourd’hui lorsque les entreprises déployent des systèmes multi-agents sans filets de sécurité suffisants ?
Un mode de défaillance clé est la propagation d’erreurs, où de petites erreurs d’un agent se propagent dans le système et sont amplifiées. Un autre problème est l’hallucination et la fausse confiance, car l’IA peut générer des sorties plausibles mais incorrectes sans signaler d’incertitude. Les organisations ont également du mal lorsque trop d’autonomie est accordée aux agents dans les décisions à forte incidence sans portes de validation ou d’approbation appropriées. Une gestion d’exception faible aggrave encore le problème, les agents échouant à escalader les cas ambigus ou de bord vers les humains. Dans l’ensemble, les défaillances se produisent parce que la fiabilité n’est pas conçue sur l’ensemble du système de coordination, de vérification et de surveillance.
La gouvernance est souvent traitée comme une couche de conformité plutôt que comme un principe de conception. Comment les entreprises devraient-elles repenser la gouvernance lors de la construction de modèles opérationnels natifs IA ?
La gouvernance devrait passer d’une couche de conformité postérieure à un principe de conception fondamental intégré directement dans les flux de travail IA. Cela signifie intégrer des garde-fous, des étapes de validation et des portes d’approbation à des points de décision clés plutôt que d’ajouter des contrôles après le déploiement. Les entreprises devraient adopter une approche basée sur le risque, en ajustant les niveaux d’autonomie et de surveillance humaine en fonction de l’impact de la décision et de l’incertitude. Des responsabilités et des droits de décision clairs doivent être définis, garantissant que les agents savent quand agir et quand escalader. Enfin, une surveillance continue, des boucles de rétroaction et des mécanismes de fiabilité conçus sont essentiels pour maintenir la confiance, les performances et le contrôle à grande échelle.
À partir de votre travail de conseil auprès des DSI et des DGO, qu’est-ce qui distingue les organisations qui réalisent un ROI mesurable avec l’IA de celles qui restent bloquées dans une expérimentation perpétuelle ?
Les organisations qui réalisent un ROI se concentrent sur la transformation de processus de bout en bout plutôt que sur des cas d’utilisation IA isolés. Elles relient les initiatives à des KPI financiers clairs et intègrent l’IA dans les flux de travail, les rôles et les structures de prise de décision. Elles investissent également dans la gestion du changement, l’adoption et la gouvernance pour garantir que les solutions évoluent efficacement. En revanche, les organisations bloquées dans l’expérimentation exécutent des pilotes non connectés, se concentrent sur les outils plutôt que sur les processus et manquent de propriété et de responsabilité claires. Par conséquent, elles échouent à traduire l’IA en valeur commerciale mesurable et restent piégées dans la phase de pilote.
À mesure que les systèmes multi-agents deviennent plus complexes, comment les organisations devraient-elles réfléchir à l’observabilité, à la surveillance et à l’escalade pour maintenir la confiance dans les décisions pilotées par l’IA ?
Les organisations devraient traiter l’observabilité, la surveillance et l’escalade comme des éléments de conception de système fondamentaux, et non comme des afterthoughts. Cela inclut l’assurance d’une traçabilité complète via la journalisation, les traces d’audit et les points de contrôle de validation pour que les décisions puissent être comprises et vérifiées. La surveillance devrait se concentrer non seulement sur les performances mais également sur la qualité des résultats, les erreurs et la façon dont les problèmes se propagent entre les agents. Des règles d’escalade claires sont nécessaires pour que les agents sachent quand déléguer aux humains dans les situations à risque élevé ou ambigües sans créer de goulets d’étranglement. En fin de compte, la confiance vient de systèmes qui sont transparents, mesurables et conçus pour la surveillance humaine par défaut.
En regardant vers l’avenir, comment voyez-vous les modèles opérationnels d’entreprise évoluer au cours des 3 à 5 prochaines années à mesure que les systèmes multi-agents IA deviennent plus profondément intégrés dans les processus métier de base ?
Les modèles opérationnels d’entreprise évolueront vers des forces de travail hybrides humaines-IA, où les agents agissent comme des employés numériques intégrés dans les processus de base. Les organisations passeront des silos fonctionnels à des structures axées sur les processus avec une propriété et une orchestration de bout en bout sur les flux de travail. La prise de décision deviendra plus dynamique, les tâches routinières étant automatisées et les humains se concentrant sur les exceptions et la surveillance. Les mécanismes de gouvernance et de fiabilité seront intégrés dans les opérations quotidiennes plutôt que traités comme des couches distinctes. En fin de compte, l’avantage concurrentiel dépendra de la façon dont les entreprises réaménagent leurs modèles opérationnels autour de l’IA, et non seulement de la technologie elle-même.
Je vous remercie pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter Arthur D. Little.












