Connect with us

Shane Eleniak, Chief Product Officer chez Calix – Série d’entretiens

Entretiens

Shane Eleniak, Chief Product Officer chez Calix – Série d’entretiens

mm

Shane Eleniak est le directeur produit chez Calix, où il dirige la vision stratégique et la mise en œuvre de la plateforme et des solutions SaaS leaders de l’entreprise. Avec un accent sur la capacité des fournisseurs de services de communication à simplifier leur entreprise et à offrir des expériences exceptionnelles aux abonnés, Shane supervise l’ensemble du cycle de vie du produit – de la conceptualisation à la mise en œuvre leader sur le marché.

Sous sa direction, Calix a consolidé sa position de pionnier dans l’industrie du haut débit, livrant régulièrement des outils innovants qui permettent aux fournisseurs de concurrencer et de gagner.

Calix est une entreprise de technologie basée aux États-Unis qui fournit des plateformes de cloud, de logiciels et de services gérés conçues pour les fournisseurs de services de haut débit et de communication. Son offre principale est centrée sur une plateforme de haut débit alimentée par l’IA qui intègre les infrastructures cloud, les données et les systèmes de réseau pour aider les fournisseurs à simplifier les opérations, améliorer l’engagement client et offrir des expériences numériques plus personnalisées. En permettant à ces fournisseurs de passer de services de connectivité de base à des « fournisseurs d’expériences » complets, Calix les aide à augmenter les revenus, à accroître la loyauté des abonnés et à soutenir la transformation numérique des communautés grâce à des services de haut débit plus avancés et plus évolutifs.

Votre carrière s’étend sur plus de trois décennies à travers l’ingénierie, les réseaux, les plateformes cloud et le leadership de produits à grande échelle. Comment ces expériences ont-elles façonné votre perspective sur ce qu’il faut vraiment pour que l’IA fasse un travail réel au sein des entreprises, plutôt que de rester une expérience secondaire ?

J’ai commencé dans les télécommunications traditionnelles et les réseaux, où le jeu entier était le chemin des données et la fiabilité à grande échelle. Si vous ne pouvez pas livrer un service propre et fiable, rien de ce que vous construisez par la suite n’a vraiment d’importance. À l’époque, le téléphone était sur le mur de la cuisine, les câbles intérieurs ne bougeaient jamais, et tant qu’il y avait un signal de tonalité, tout allait bien.

Le haut débit et Internet ont tout changé. Soudain, ce n’était plus seulement « est-ce allumé ? » C’était Ethernet, puis Wi-Fi, les enfants sur des consoles de jeux et des tablettes, vous sur un appel Zoom en collaboration sur une feuille de calcul cloud, et une mobilité constante – des appareils à l’intérieur de la maison, dans la cour, au match de soccer, au café. L’expérience de l’abonné est devenue beaucoup plus complexe qu’un simple état binaire allumé/éteint, et le monde des fournisseurs de services est devenu très dynamique. Dans ce monde, une vision rétrospective des données – les entrepôts de données classiques et les rapports historiques un mois plus tard – ne suffit plus. Vous devez collecter des données, comprendre l’expérience et générer des insights en temps réel, car les abonnés s’attendent maintenant à ce que les problèmes soient résolus de manière proactive, et non en quelques heures ou jours.

Cette évolution a façonné ma façon de penser à l’IA. La plupart des gens veulent mettre l’IA « en haut », de la même manière qu’ils mettent l’intelligence d’affaires ou les SaaS au-dessus des lacs de données existants. Mon expérience me dit que vous devez réfléchir beaucoup plus profondément que cela et concevoir pour des insights actionnables en temps réel et la capacité de prendre des mesures opportunes.

Pour les abonnés, cependant, les attentes n’ont pas changé beaucoup au cours des 25 dernières années. Ils veulent toujours une connectivité sécurisée et gérée qui semble aussi simple que la tonalité – ils veulent que tout « fonctionne » sans réfléchir à toutes les couches et à la complexité, et ils veulent cela partout dans leur vie. Ma carrière dans les télécoms et le cloud m’a rendu très à l’aise avec cette paradoxie : vous construisez des systèmes extrêmement complexes pour pouvoir abstraire tout cela et offrir une expérience simple et exceptionnelle à la périphérie. C’est exactement ainsi que je pense à l’IA faisant un travail réel au sein de n’importe quelle entreprise, qu’il s’agisse de haut débit ou non.

À Calix, vous insistez souvent sur le fait que l’IA opérationnelle est construite et non achetée. Quelles sont les erreurs les plus courantes que les organisations commettent lorsqu’elles tentent d’ajouter l’IA sans repenser la façon dont le travail s’écoule au sein de l’entreprise ?

Pour moi, il s’agit moins de « construit versus acheté » et plus de savoir si vous avez pris un pas en arrière pour regarder l’ensemble de la pile technologique. Beaucoup d’entreprises ont décidé que l’IA était simplement l’utilisation de certaines API pour accéder à un LLM, en les reliant à leur pile avec un wrapper, et en achetant des jetons – alors vous aviez une stratégie d’IA. Ce n’est pas ainsi que cela fonctionne.

Trop d’entre nous sommes fascinés par la technologie au lieu du résultat. Nous avons déjà vu ce film. Lorsque les PC sont arrivés, tout le monde voulait discuter de savoir s’il s’agissait d’un 286 ou d’un 386, de la quantité de mémoire dont il disposait, et du DOS qu’il exécutait. Aujourd’hui, personne ne peut vous dire les spécifications de son ordinateur portable ou de son téléphone, et personne ne s’en soucie jusqu’à ce qu’il cesse de faire ce dont vous avez besoin. Ce qui compte, c’est : est-ce que cela me rend plus efficace dans mon travail ? C’est la même chose avec l’IA. Si vous ne pouvez pas la relier à des flux de travail réels, à une valeur réelle et à un ROI réel, les spécifications techniques ne sont que du bruit.

Une autre grande erreur est d’essayer de greffer l’IA sur ce que vous avez déjà sans se demander ce que cela fait à votre architecture, à votre modèle de sécurité et à vos coûts. L’IA est une technologie fondamentale, et non une simple mise à jour de fonctionnalité. Lorsque vous la traitez comme une mise à jour incrémentale, vous finissez par avoir de mauvaises données, des problèmes de sécurité, des hallucinations, des coûts déraisonnables, ou beaucoup d’activité qui ne résout pas de problème pour qui que ce soit.

Enfin, vous ne pouvez pas ignorer le contexte et l’importance de l’expertise verticale. L’action est tout à fait liée au contexte, et ce contexte diffère selon les télécoms, la fintech et les soins de santé. Chez Calix, nous avons commencé avec une expérience approfondie dans un secteur et construit une plateforme verticale autour de celui-ci. Nous comprenions déjà les données, les insights, les flux de travail et le contexte, donc la pile pouvait refléter cette réalité. La plupart des entreprises connaissent leur secteur vertical comme leur poche. L’opportunité est de coder cette connaissance dans une pile technologique verticale plutôt que de compter sur une fine couche horizontale et un modèle d’IA générique, puis d’essayer de tout coudre ensemble. Les entreprises sont axées sur les résultats, et non sur les modèles. La vraie question est de savoir comment cette technologie vous aide à livrer ces résultats de la manière dont vos flux de travail s’écoulent.

Vous avez décrit une architecture à cinq couches pour l’IA opérationnelle qui comprend les données, les connaissances, l’orchestration, la confiance et l’action. Pourquoi est-il important de séparer explicitement ces couches, et laquelle les entreprises sous-estiment ou sautent entièrement ?

Pendant longtemps, la pile était assez simple : données, insights, tableaux de bord, flux de travail, personnes. Vous construisiez des entrepôts de données, mettiez l’intelligence d’affaires au-dessus, créiez des moteurs de flux de travail, et confiiez le travail difficile aux humains. Dans un monde agentic, cela ne tient plus. Vous avez besoin de données, de connaissances, d’orchestration, de confiance et d’action, car chaque couche remplit une fonction distincte.

La partie visible dont tout le monde veut parler est la couche d’action – les agents. C’est la partie visible de l’iceberg. Ce qui détermine si vous pouvez jamais laisser les agents toucher des systèmes réels, c’est tout le « travail ennuyeux » sous la surface : les pipelines de données et les données propres, la couche de connaissances qui donne du contexte, l’orchestration qui coordonne les flux de travail dynamiques, et le modèle de confiance qui décide ce qui est autorisé au départ. Lorsque le Titanic a coulé, ce n’était pas la petite partie que vous pouviez voir qui l’a coulé ; c’était la grande masse de glace en dessous. L’IA opérationnelle est la même. Les tuyauteries sous la surface sont ce qui fait ou défait.

Historiquement, nous n’avons jamais traité l’orchestration et la confiance comme des couches distinctes, car les humains faisaient la plupart de ce travail. L’orchestration signifiait des managers et des files d’attente ; la confiance signifiait des noms d’utilisateur et des mots de passe. Maintenant, vous devez faire confiance aux entités – les agents – pour faire des choses, et vous devez coordonner plusieurs agents en temps réel autour de données dynamiques. C’est un problème de conception complètement différent, c’est pourquoi ces couches doivent être explicites.

La couche la plus sous-estimée est la confiance. Beaucoup d’organisations pensent qu’elles gèrent la confiance parce qu’elles ont des contrôles d’accès – qui peut se connecter à quel système. Mais la vraie confiance dans un monde agentic n’est pas « cet utilisateur a-t-il accès ? » C’est « cette action particulière est-elle appropriée pour cet individu ou cet agent à ce moment précis ? » C’est une question de gouvernance, et non de contrôle d’accès. Si vous ne rendez pas cette couche explicite, vous restez coincé dans le paysage des démonstrations, car vous ne serez jamais à l’aise pour laisser les agents faire un travail réel en production.

Donc, la confiance est clairement une partie fondamentale de votre stratégie d’IA. Comment concevez-vous des systèmes pour que les décisions automatisées restent observables, auditable et réversibles, tout en avançant suffisamment vite pour livrer de la valeur commerciale ?

Vous devez commencer avec une mentalité de confiance zéro. La première question n’est pas « cet agent peut-il techniquement le faire ? » La première question est « cet agent, au nom de cette personne, doit-il essayer de le faire à tout prix ? » Si la réponse est non, alors ne procédez pas.

Si la réponse est oui, vous passez aux garde-fous : auditabilité, traçabilité et nécessité d’un humain dans la boucle. Notre modèle repose sur une couche de confiance qui agit un peu comme un policier de la circulation au début de chaque interaction : qui êtes-vous, que faites-vous et pourquoi le faites-vous ? Cela élimine beaucoup de problèmes de sécurité, car vous n’autorisez pas les agents à s’enfuir et à faire des choses, puis à espérer que vous le remarquerez après coup.

L’alternative est de lâcher les agents, puis de sonner l’alarme s’ils font quelque chose de mal. Vous supposez que vous pouvez le voir, le comprendre, l’identifier et l’arrêter en temps réel, au rythme et à l’échelle à laquelle ces systèmes fonctionnent. C’est un problème très difficile, et c’est pourquoi beaucoup de gens luttent – ils essaient de trouver les mauvais acteurs en temps réel au lieu d’empêcher les mauvaises actions dès le départ.

En plus de cela, nous avons ajouté des passerelles couchées. Même si un agent agit au nom de la bonne personne, nous regardons toujours la session et le contenu – essaient-ils de rendre un modèle toxique, d’abuser d’une API ou de faire quelque chose en dehors de la politique ? Tout cela est enveloppé dans une observabilité totale pour que vous puissiez auditer ce qui s’est passé et le renverser si vous devez. C’est ainsi que vous avancez rapidement et dormez encore la nuit.

De nombreuses entreprises réussissent à générer des insights d’IA mais luttent pour les traduire en action. Quelles décisions de conception ont permis à Calix de pousser l’IA directement dans les flux de travail quotidiens à travers le marketing, les opérations et le support client ?

Bien avant que l’IA ne soit la star du spectacle, chez Calix, nous étions déjà obsédés par une question : qu’est-ce qui rend un insight vraiment actionnable pour une personne réelle dans un travail réel ? Depuis 2018, nous travaillons avec des fournisseurs de services pour comprendre comment différents personnages travaillent – ce qu’un marketeur fait un mardi matin, ce qu’une équipe d’exploitation fait lorsqu’une alarme se déclenche, ce que les équipes de support font lorsqu’un abonné appelle en colère. Cela nous a forcé à être très précis sur quels insights comptaient pour qui, dans quel contexte et à quoi ressemblait une « bonne action ».

Donc, lorsque l’IA agentic est arrivée, nous ne commencions pas de zéro. Nous avions déjà des systèmes en temps réel générant des insights actionnables liés à des personnages et des flux de travail spécifiques. La question de conception est devenue : étant donné un ensemble d’outils différent et une pile technologique différente, comment réarchitecturiez-vous ces mêmes flux de travail dans un monde d’IA agentic, au lieu d’essayer de les inventer tous à partir de zéro ?

Lorsque vous associez cette connaissance approfondie des personnages avec l’IA agentic, vous pouvez construire des flux de travail dynamiques sur des données dynamiques. Les agents peuvent déterminer en temps réel quels étapes et quels personnages doivent être impliqués en fonction de ce qui se passe, au lieu de vous forcer à coder des centaines de flux rigides dans des microservices. Pour la plupart des entreprises, le problème difficile est actuellement de prendre des décisions en temps réel basées sur le contexte, puis de concevoir le bon flux de travail autour de cela. Pour nous, cette partie était déjà en place ; nous faisions des insights en temps réel, basés sur les personnages et actionnables, depuis des années. L’IA agentic n’est qu’un nouvel ensemble d’outils sur cette fondation.

Votre vision de plateforme inclut l’interopérabilité des agents (A2A) et les systèmes d’IA fédérés. Comment cette approche change la façon dont les outils d’entreprise collaborent par rapport aux intégrations ponctuelles traditionnelles ?

Si vous regardez les 20 dernières années, le modèle par défaut a été « acheter un tas d’outils SaaS et les relier autour d’un lac de données ». Chaque nouveau système signifiait une autre intégration ponctuelle, un autre pipeline de données et un autre endroit pour réconcilier la vérité. Dans un monde agentic, cela ne fonctionne pas. Vous voulez que les données restent où elles appartiennent et que les agents parlent les uns aux autres sur des interfaces bien définies.

C’est pourquoi nous parlons de toucher le système à deux couches : MCP à la couche de connaissances, et A2A aux couches d’orchestration et de confiance. MCP est la façon dont les agents découvrent et utilisent les outils et les données sans une nouvelle intégration personnalisée chaque fois. A2A est la façon dont les agents coordonnent le travail les uns avec les autres sous des garde-fous clairs.

Une fois que vous avez cela, la collaboration cesse de ressembler à un tas de connecteurs fragiles et commence à ressembler à un réseau de spécialistes qui peuvent s’associer dynamiquement autour d’un travail réel. Voici où l’analogie de la matrice d’Eisenhower entre en jeu. Pas tout est également urgent et important. Certains travaux sont vraiment critiques en temps, certains sont importants mais peuvent être planifiés, certains doivent simplement être faits et certains sont du bruit. Avec la coordination agent-à-agent reposant sur une couche de confiance et d’orchestration, vous pouvez traiter ces catégories différemment à grande échelle : les agents peuvent se ruer sur les problèmes urgents et importants, mettre en file d’attente ou planifier les problèmes importants mais non urgents, et garder les tâches de faible valeur de l’envahir tout le reste.

C’est un monde très différent de « ajoutons encore un connecteur et espérons que la file d’attente se vide ». Vous voyez essentiellement des flux de travail dynamiques et orchestrés avec confiance autour d’événements et de données dynamiques, au lieu d’un enchevêtrement d’intégrations ponctuelles où tout le monde crie à la même priorité.

Une fois que les agents d’IA sont autorisés à agir de manière autonome, la gouvernance devient rapidement un défi. Comment équilibrez-vous la vitesse, la responsabilité et la surveillance humaine lorsque les systèmes d’IA prennent ou exécutent des décisions à grande échelle ?

L’erreur que je vois est que les gens pensent qu’ils peuvent greffer l’IA agentic sur ce qu’ils ont et essayer de « trouver un équilibre » entre vitesse, responsabilité et surveillance humaine après coup. Vous ne pouvez pas. Vous devez commencer par reconnaître que c’est un problème de pile technologique verticale et en construisant intentionnellement une couche de confiance et une couche d’orchestration. Sans ces deux couches, cela devient un chaos – tout est premier venu, premier servi, ou qui crie le plus fort.

Encore une fois, c’est la matrice d’Eisenhower : pas tout le travail est créé égal. La confiance et l’orchestration sont la façon dont vous opérationnalisez cela dans un monde agentic. Vous ne voulez pas que chaque agent traite chaque tâche comme un exercice d’incendie ; vous voulez que le système sache ce qui est vraiment critique en temps, ce qui peut être planifié et ce qui devrait être traité discrètement en arrière-plan.

Et puis il y a la partie « étroit plutôt que gras ». La plupart des entreprises se trompent en pensant que l’impact plus important de l’IA vient de rester large. Vous êtes beaucoup mieux de choisir une fine tranche verticale – un cas d’utilisation concret, un ensemble de flux de travail – et de construire la confiance et l’orchestration dont vous avez besoin là d’abord. Devenez plus mince dans le vertical, obtenez-le juste, gardez les humains dans la boucle aux extrémités et étendez ensuite. C’est ainsi que vous avancez rapidement, restez responsable et évitez de créer un désordre que vous ne pouvez pas défaire plus tard.

À partir de votre expérience en tant que dirigeant d’équipes de produits et d’ingénierie mondiales, quels changements organisationnels ou culturels sont nécessaires pour que l’IA devienne une capacité d’entreprise durable plutôt qu’une collection de pilotes déconnectés ?

La plupart des entreprises n’ont pas de « problème d’IA » ; elles ont un problème de connaissance et de flux de travail. Le premier changement est de cesser de jouer avec des solutions ponctuelles et de passer des entrepôts de données aux entrepôts de connaissances fédérés que tout le monde peut voir et sur lesquels agir. Tant que la connaissance vit dans des silos et que l’IA est un cerise sur le dessus de chaque silo, vous obtiendrez des pilotes, et non une transformation.

À partir de là, vous devez être prêt à aller après les problèmes plus difficiles dans un ordre spécifique. L’étape un est de séparer l’hype de la réalité et d’adopter ce qui fonctionne, et non ce qui est le plus fort dans votre fil. L’étape deux est de réarchitecturer la couche de connaissance pour que vous puissiez transformer les données en contexte partagé et fédéré au lieu d’un rapport de plus enterré dans un système. L’étape trois est de repenser les flux de travail autour de cette connaissance et d’une véritable couche de confiance – la plupart du travail aujourd’hui est organisé autour des personnes, des compétences et des silos de connaissance locaux. Si vous ne changez pas cela, les agents ne seront qu’un autre outil orbitant les mêmes anciens goulets d’étranglement.

Ce n’est qu’alors que vous obtenez le changement culturel, qui est souvent le plus difficile. Vous avez besoin d’une culture où les gens ne sont pas principalement inquiets de perdre leur emploi, leurs outils ou leur identité, mais sont vraiment excités de travailler avec de nouvelles capacités. C’est un problème de gestion du changement, et non un problème technologique. Cela ressemble beaucoup à un leadership réellement distribué : les personnes à l’extrémité de la lance comprennent les flux de travail, se sentent en sécurité pour nommer les frictions et sont excités de mettre les agents au travail dessus.

En regardant au-delà du haut débit et des télécoms, quels secteurs pensez-vous être les mieux placés pour adopter l’IA opérationnelle et agentic la prochaine, et quels sont les facteurs qui les rendent prêts ?

Je ne pense pas vraiment à cela en termes de choix de gagnants par étiquette d’industrie ; je pense en termes de modèles. Presque chaque secteur vertical a le même défi sous-jacent : ils ont construit des silos de données et des silos de fonctionnalités au lieu d’une vue unique sur trois cycles de vie – client, employé et produit. Ceux qui sont prêts sont ceux qui sont prêts à voir cela, à admettre qu’ils n’ont pas de véritable couche de connaissance et à la corriger.

À partir de là, les conditions ressemblent beaucoup aux mêmes, que vous soyez dans les soins de santé, la fintech, la vente au détail ou les infrastructures critiques. Vous avez besoin de flux de travail complexes où les gens sont tendus, de vrais points de friction que vous pouvez nommer et suffisamment de données de haute qualité pour donner du contexte aux agents. Si vous pouvez cartographier les flux de travail actuels, voir où le travail ralentit ou s’accumule, comprendre quels transferts créent des retards et puis étayer cela avec un entrepôt de connaissances fédéré, l’IA agentic devient un outil incroyable.

Dans ce monde, la « préparation de l’industrie » se résume à la direction. Les dirigeants d’une entreprise sont-ils prêts à passer des outils de marketing et des tableaux de bord horizontaux fins à investir dans une pile technologique verticale – en transformant les données en connaissances, en fédérant ces connaissances, en mettant en place des cadres d’orchestration et de confiance et en ayant des conversations honnêtes sur où se trouve le véritable ROI ? Toute entreprise, dans n’importe quel secteur, qui fait ce travail est bien placée pour l’IA opérationnelle et agentic ; ceux qui ne le font pas seront coincés en ajoutant un autre outil à un tas de bruit déjà existant.

Alors que l’IA d’entreprise évolue vers des environnements multi-agents et multi-cloud, à quoi ressemble une bonne architecture d’IA dans cinq ans, et quels principes les dirigeants doivent-ils s’engager à respecter aujourd’hui pour éviter de reconstruire leurs systèmes plus tard ?

Dans cinq ans, la partie intéressante de l’IA ne sera pas les agents ou les modèles individuels ; ce sera les flux de travail agentic qu’ils permettent et la valeur commerciale que ces flux de travail livrent. Les agents eux-mêmes viendront et partiront. Les couches en dessous – données, connaissances, orchestration, confiance et action – continueront à évoluer, mais le besoin de ces couches ne disparaîtra pas.

C’est pourquoi je me concentre plus sur l’architecture que sur un outil spécifique. Nous passons des entrepôts de données aux entrepôts de connaissances fédérés, des intégrations ponctuelles fragiles à des piles couchées ouvertes. Dans ce monde, vous aurez des agents s’exécutant dans différents clouds, touchant différentes sources de connaissances et se coordonnant sur des interfaces bien définies – MCP à la couche de connaissances, protocoles d’agent à agent aux couches d’orchestration et de confiance. À mesure que la technologie s’améliore, vous voulez pouvoir remplacer de meilleures pièces dans ces couches sans reconstruire tout le système chaque fois.

Les principes pour les dirigeants sont simples. Ne construisez pas de manière monolithique. Concevez pour les couches afin que les données, les connaissances, l’orchestration, la confiance et l’action puissent évoluer indépendamment. Concevez pour les flux, et non pour les fonctionnalités, afin d’être clair sur quels flux de travail comptent et à quoi ressemble le « bon » dans les cycles de vie du client, de l’employé et du produit. Et concevez pour la gouvernance au niveau de l’agent : supposez une confiance zéro par défaut, définissez des « cartes d’agent » claires et utilisez l’orchestration pour décider ce qui est urgent, ce qui est important et ce qui doit simplement être fait. Si vous faites cela, vous pouvez laisser la technologie changer – comme elle le fait toujours – sans vous soucier constamment de reconstruire.

Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter Calix.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.