Suivez nous sur

Shahar Azulay, PDG et cofondatrice de Groundcover

Interviews

Shahar Azulay, PDG et cofondatrice de Groundcover

mm

Shahar Azulay, PDG et cofondateur de Groundcover, Shahar est un leader chevronné en R&D. Fort d'une solide expérience en cybersécurité et en apprentissage automatique, il a occupé des postes à responsabilité au sein d'entreprises telles qu'Apple, DayTwo et Cymotive Technologies. Shahar a également travaillé plusieurs années au sein de la division Cyber ​​du cabinet du Premier ministre israélien et est titulaire de trois diplômes en physique, génie électrique et informatique, obtenus à l'Institut de technologie Technion d'Israël et à l'Université de Tel Aviv. Grâce à cette riche expérience, Shahar s'attache à mettre à profit ses connaissances technologiques pour développer des solutions innovantes et performantes dans le domaine du cloud, contribuant ainsi à un monde du développement plus performant.

couverture de sol Cette plateforme d'observabilité native du cloud offre aux équipes d'ingénierie une visibilité complète et en temps réel sur leurs systèmes, sans la complexité ni le coût des outils de supervision traditionnels. Basée sur la technologie eBPF, elle collecte et met en corrélation les journaux, les métriques, les traces et les événements dans les environnements cloud natifs et Kubernetes, sans aucune modification de code. Elle permet ainsi une analyse des causes profondes plus rapide et une meilleure compréhension du système. La plateforme privilégie une tarification prévisible, un déploiement flexible qui conserve les données dans le cloud du client, et une observabilité de bout en bout couvrant l'infrastructure, les applications et les charges de travail modernes pilotées par l'IA.

En repensant Ă  votre parcours – de la direction d'Ă©quipes de R&D en cybersĂ©curitĂ© au sein du cabinet du Premier ministre israĂ©lien Ă  la gestion d'initiatives d'apprentissage automatique chez Apple – quelles expĂ©riences vous ont finalement poussĂ© Ă  fonder Groundcover, et quand avez-vous pris conscience pour la première fois du manque d'observabilitĂ© des systèmes d'IA modernes ?

L'idée de fonder Groundcover m'est venue de mon expérience chez Apple et DayTwo. Malgré des budgets colossaux, nous étions confrontés à un dilemme : payer une fortune pour tout consigner ou procéder par échantillonnage et naviguer à vue. À l'époque, nous recherchions une technologie capable de résoudre ce problème. Lorsque nous avons découvert Extended Berkeley Packet Filter (eBPF), il est devenu évident que cela allait tout changer. eBPF nous permet de voir tout ce qui se passe dans le noyau sans dépendre des modifications apportées aux applications. Je ne comprenais pas pourquoi les outils d'observabilité n'en tiraient pas parti. Le fossé en matière d'IA est devenu flagrant plus tard. Une fois notre plateforme Kubernetes arrivée à maturité, nous avons vu des clients se précipiter sur des déploiements d'IA générale tout en traitant les LLM comme des boîtes noires. Ils savaient que le modèle répondait, mais ignoraient pourquoi son comportement était imprévisible ou pourquoi les coûts s'envolaient. Nous avons réalisé que les flux de travail agentiques sont simplement des microservices complexes et non déterministes qui nécessitent la même visibilité sans intervention que nous avions déjà mise en place.

Comment votre expérience en cybersécurité, en systèmes embarqués et en R&D sur l'apprentissage automatique a-t-elle influencé la vision de Groundcover, et quels défis initiaux avez-vous rencontrés lors de la création d'une entreprise axée sur l'observabilité pour les applications pilotées par LLM et les agents ?

Mon expérience en cybersécurité a façonné l'ADN de l'entreprise. Dans le domaine du renseignement, on part du principe qu'on ne contrôle pas l'application. C'est pourquoi Groundcover ne nécessite aucune instrumentation. Je sais par expérience que demander aux développeurs de modifier le code est le meilleur moyen de freiner l'adoption. Le principal défi initial de la surveillance LLM était la protection de la vie privée. L'observabilité pour l'IA capture des requêtes pouvant contenir des informations personnelles sensibles ou des adresses IP. Mon expérience m'a clairement montré que les entreprises ne souhaiteraient pas que ces données quittent leur environnement. C'est pourquoi nous avons conçu notre architecture cloud, qui nous permet d'offrir une visibilité approfondie sur le comportement des agents tout en conservant toutes les données au sein de l'environnement du client.

Comment dĂ©finir l'observabilitĂ© LLM, et en quoi la diffĂ©rencie-t-elle de la surveillance traditionnelle ou de la surveillance ML ?

L'observabilitĂ© des modèles de langage complexes (LLM) consiste Ă  instrumenter et Ă  surveiller les systèmes de production qui les utilisent afin de capturer le contexte complet de chaque infĂ©rence : l'invite, le contexte, la complĂ©tion, l'utilisation des jetons, la latence, les erreurs, les mĂ©tadonnĂ©es du modèle et, idĂ©alement, les retours d'information ou les signaux de qualitĂ© en aval. Au lieu de se contenter de se demander « Le service est-il opĂ©rationnel et rapide ? Â» ou « Cette requĂŞte a-t-elle Ă©chouĂ© ? Â», l'observabilitĂ© des LLM permet de rĂ©pondre Ă  des questions telles que « Pourquoi cette requĂŞte a-t-elle rĂ©ussi ou Ă©chouĂ© ? Â», « Que s'est-il rĂ©ellement passĂ© au sein de ce flux de travail en plusieurs Ă©tapes ? Â» et « Comment les modifications apportĂ©es aux invites, au contexte ou aux versions du modèle affectent-elles le coĂ»t, la latence et la qualitĂ© des rĂ©sultats ? Â». Cette approche est très diffĂ©rente de la surveillance traditionnelle, voire de la surveillance classique du ML. Les mĂ©thodes traditionnelles sont optimisĂ©es pour les systèmes dĂ©terministes, les mĂ©triques d'infrastructure et les seuils statiques. Les applications LLM sont non dĂ©terministes, ouvertes et fortement dĂ©pendantes du contexte. Le succès est souvent sĂ©mantique et subjectif, et ne se rĂ©sume pas Ă  un simple code d'Ă©tat 200 ou 500. Cela signifie que vous devez retracer les entrĂ©es et les sorties, comprendre les appels d'outils et les Ă©tapes de rĂ©cupĂ©ration, Ă©valuer les rĂ©ponses pour dĂ©tecter des problèmes tels que des hallucinations ou des violations de politique, et relier les coĂ»ts et les dĂ©lais au niveau du jeton Ă  l'application et Ă  l'infrastructure environnantes.

Quels sont les dĂ©fis posĂ©s par les applications basĂ©es sur LLM qui rendent les outils d'observabilitĂ© traditionnels insuffisants ?

Les systèmes basĂ©s sur la technologie LLM soulèvent plusieurs dĂ©fis qui mettent en Ă©vidence les limites des outils traditionnels :

  • Flux de travail complexes en plusieurs Ă©tapes Nous sommes passĂ©s de flux simples du type « appeler un modèle, obtenir une rĂ©ponse Â» Ă  des agents multi-Ă©tapes, des pipelines Ă  plusieurs Ă©tapes, la gĂ©nĂ©ration augmentĂ©e par rĂ©cupĂ©ration et l'utilisation d'outils. Une dĂ©faillance silencieuse Ă  l'une de ces Ă©tapes, comme la rĂ©cupĂ©ration, l'enrichissement, l'intĂ©gration, l'appel d'outil ou l'appel de modèle, peut compromettre l'ensemble du processus. La supervision traditionnelle ne fournit gĂ©nĂ©ralement pas une vue complète et dĂ©taillĂ©e de ces chaĂ®nes, incluant les invites et les rĂ©ponses.
  • Piles d'IA en Ă©volution rapide Les Ă©quipes ajoutent de nouveaux modèles, outils et fournisseurs Ă  un rythme sans prĂ©cĂ©dent. Dans de nombreuses entreprises, il est impossible de recenser avec certitude les modèles en production Ă  un instant T. L'observabilitĂ© classique suppose gĂ©nĂ©ralement d'avoir le temps d'instrumenter les SDK, de redĂ©ployer et de sĂ©lectionner avec soin les donnĂ©es mesurĂ©es. Or, cette approche ne permet tout simplement pas de suivre la vitesse d'adoption de l'IA.
  • Économie basĂ©e sur les jetons et les quotas La tarification et les limites de dĂ©bit sont liĂ©es aux jetons et Ă  la durĂ©e du contexte, souvent gĂ©rĂ©es par les dĂ©veloppeurs, les invites ou le comportement des utilisateurs, et non par une Ă©quipe d'exploitation centrale. Les outils traditionnels ne permettent pas d'afficher « qui a consommĂ© combien de jetons, selon quel modèle, pour quel flux de travail et avec quelle latence Â».
  • L'exactitude sĂ©mantique plutĂ´t que le succès binaire Un LLM peut renvoyer un code 200 tout en ayant des hallucinations, en s'Ă©cartant des consignes ou en enfreignant les règles. Les outils traditionnels considèrent cela comme une rĂ©ussite. Il vous faut une observabilitĂ© permettant de faire apparaĂ®tre les consignes et les rĂ©ponses, et de fournir suffisamment de contexte pour analyser le comportement et, Ă  terme, mettre en place des contrĂ´les qualitĂ© automatisĂ©s.
  • DonnĂ©es sensibles transmises Ă  des tiers Les plateformes de gestion de l'activitĂ© (LLM) invitent les utilisateurs Ă  partager des informations très sensibles via des interfaces de type messagerie instantanĂ©e. Vous ĂŞtes alors responsable de ces donnĂ©es, de leur lieu de stockage et des fournisseurs qui y ont accès. Les solutions d'observabilitĂ© SaaS classiques, qui transmettent toutes les donnĂ©es de tĂ©lĂ©mĂ©trie Ă  un tiers, sont souvent inadaptĂ©es Ă  ces charges de travail.

Tout cela signifie que les systèmes LLM nécessitent une observabilité qui soit consciente de l'IA, riche en contexte et bien moins dépendante de l'instrumentation manuelle que les outils que la plupart des équipes utilisent aujourd'hui.

Quels signaux ou indicateurs sont les plus importants pour comprendre les performances et la qualitĂ© des systèmes LLM, notamment la latence, l'utilisation des jetons et le comportement des invites/rĂ©ponses ?

Il existe quelques catĂ©gories de signaux qui sont très importantes en pratique :

Latence et débit

  • Latence de bout en bout par requĂŞte, incluant le temps de modĂ©lisation et le temps d'application environnant.
  • Latences de queue (P90, P95, P99) par modèle et par flux de travail.
  • DĂ©bit par modèle, itinĂ©raire et service, pour que vous sachiez exactement oĂą va la charge.

Facteurs de coût liés à l'utilisation des jetons

  • Jetons d'entrĂ©e et de sortie par requĂŞte, ventilĂ©s par modèle.
  • Utilisation agrĂ©gĂ©e des jetons au fil du temps par modèle, Ă©quipe, utilisateur et flux de travail.
  • Tailles de contexte pour les pipelines Ă  forte intensitĂ© de rĂ©cupĂ©ration afin que vous puissiez voir quand les invites explosent.
  • C’est ce qui vous permet de rĂ©pondre Ă  la question : « Qui dĂ©pense rĂ©ellement notre budget IA et pour quoi ? Â»

Comportement prompt et réactif

  • Les charges utiles rĂ©elles d'invite et de rĂ©ponse sur des traces reprĂ©sentatives, y compris les appels d'outils et les chemins de raisonnement.
  • Quels outils le LLM a-t-il choisi d'utiliser et dans quel ordre ?
  • Variance des rĂ©ponses Ă  des incitations similaires afin de dĂ©terminer la stabilitĂ© du comportement.

Fiabilité et erreurs

  • Taux et types d'erreurs spĂ©cifiques au modèle (erreurs du fournisseur, dĂ©lais d'attente, problèmes d'authentification, erreurs de quota).
  • Les dĂ©faillances dans le flux de travail environnant, telles que les dĂ©lais d'expiration des outils ou les erreurs de rĂ©cupĂ©ration, Ă©taient corrĂ©lĂ©es Ă  l'appel LLM.

Contexte infra classique

  • MĂ©triques du processeur, de la mĂ©moire et du rĂ©seau des conteneurs pour les services orchestrant vos appels LLM.
  • Journaux corrĂ©lĂ©s dĂ©crivant ce que l'application tentait de faire.

Lorsque vous pouvez visualiser toutes ces informations au même endroit, l'observabilité LLM passe de « Je sais que quelque chose est lent ou coûteux » à « Je sais exactement quel modèle, quel modèle d'invite et quel service sont responsables et pourquoi ».

Comment l'observabilitĂ© peut-elle aider les Ă©quipes Ă  dĂ©tecter les dĂ©faillances silencieuses telles que la dĂ©rive des prompts, les hallucinations ou la dĂ©gradation progressive de la qualitĂ© de la production ?

Les dĂ©faillances silencieuses dans les systèmes LLM surviennent gĂ©nĂ©ralement lorsque tout semble fonctionner correctement au niveau de l'infrastructure, mais que le comportement rĂ©el dĂ©rive. L'observabilitĂ© apporte des solutions de plusieurs manières :

  • En traçant l'intĂ©gralitĂ© du flux de travail, et pas seulement l'appel de modèle, on ne peut pas se contenter de l'appel de modèle. En capturant l'intĂ©gralitĂ© du parcours d'une requĂŞte, du client au service, puis Ă  la rĂ©cupĂ©ration, au modèle et enfin aux outils, vous pouvez identifier les changements de comportement. Par exemple, il se peut que la rĂ©cupĂ©ration renvoie moins de documents, ou qu'un appel d'outil Ă©choue de manière intermittente et que le modèle s'adapte.
  • Garder Ă  l'esprit les invites, le contexte et les rĂ©ponses â€“ Lorsque vous pouvez examiner les invites et les rĂ©ponses en parallèle des traces, il devient beaucoup plus facile de repĂ©rer les cas oĂą une nouvelle version d'invite, une nouvelle instruction système ou une nouvelle source de contexte a modifiĂ© le comportement, mĂŞme si la latence et les taux d'erreur sont restĂ©s les mĂŞmes.
  • Filtrage et dĂ©coupage selon des conditions sĂ©mantiques â€“ Une fois que vous disposez de donnĂ©es de tĂ©lĂ©mĂ©trie LLM complètes, vous pouvez filtrer les donnĂ©es pour obtenir des rĂ©sultats tels que « appels bedrock sur une seconde Â», « requĂŞtes utilisant cette famille de modèles Â» ou « traces impliquant cet itinĂ©raire particulier Â», puis lire les invites et les rĂ©ponses pour voir si le modèle dĂ©rive ou hallucine dans un scĂ©nario spĂ©cifique.
  • Alertes sur les SLO au niveau de l'entreprise Vous pouvez dĂ©finir des SLO comme « tout appel LLM de plus d'une seconde enfreint notre SLA destinĂ© aux utilisateurs Â» et dĂ©clencher des alertes lorsque ces conditions sont remplies. Ă€ terme, des SLO similaires peuvent ĂŞtre associĂ©s Ă  des scores de qualitĂ© ou Ă  des contrĂ´les de politiques afin d'ĂŞtre alertĂ© en cas de dĂ©gradation de la qualitĂ©, et non plus seulement en cas de dĂ©faillance de l'infrastructure.

Étant donné que la couche d'observabilité a accès à la fois aux signaux spécifiques à l'IA et aux journaux, métriques et traces classiques, elle devient un endroit naturel pour détecter les problèmes qui, autrement, dégraderaient silencieusement l'expérience utilisateur.

Comment l'approche de Groundcover permet-elle de diagnostiquer les latences imprĂ©visibles ou les comportements inattendus dans les flux de travail d'agents Ă  plusieurs Ă©tapes et les appels d'outils ?

Groundcover adopte une approche conçue pour les systèmes d'IA modernes. Nous utilisons un capteur basĂ© sur eBPF au niveau du noyau pour observer le trafic entre les microservices, sans modification de code ni redĂ©ploiement. Dès que vous mettez en place un workflow LLM, nous pouvons dĂ©tecter automatiquement ces appels. Si vous commencez Ă  utiliser un nouveau modèle comme Anthropic, OpenAI ou Bedrock demain, Groundcover capture automatiquement ce trafic. Vous bĂ©nĂ©ficiez ainsi de :

  • TraçabilitĂ© de bout en bout des flux de travail multi-sauts â€“ Vous visualisez le parcours complet d'une requĂŞte Ă  travers les services, y compris les endroits oĂą un LLM ou un outil est utilisĂ©.
  • Contexte dĂ©taillĂ© de chaque appel LLM â€“ Chaque appel inclut le modèle utilisĂ©, la latence, l'utilisation des jetons, les invites, les rĂ©ponses, ainsi que les journaux et les mĂ©triques d'infrastructure corrĂ©lĂ©s.
  • Filtrage performant de la latence et des conditions â€“ Par exemple, vous pouvez filtrer tous les appels Claude 3.5 de plus d'une seconde et examiner immĂ©diatement les traces qui ont enfreint votre SLA.
  • Alertes et tableaux de bord liĂ©s au comportement LLM â€“ Une fois les donnĂ©es disponibles, vous pouvez crĂ©er des alertes en cas de non-respect des SLA ou construire des tableaux de bord qui suivent la latence, le dĂ©bit, l'utilisation des jetons et les erreurs.

Comme toutes les données sont collectées en périphérie par eBPF et stockées dans votre propre cloud, vous bénéficiez de cette vue très détaillée sans avoir à ajouter d'instrumentation dans chaque agent ou appel d'outil.

Quels risques liĂ©s Ă  la sĂ©curitĂ© des donnĂ©es et Ă  la conformitĂ© voyez-vous apparaĂ®tre dans les dĂ©ploiements LLM, et comment l'observabilitĂ© peut-elle contribuer Ă  rĂ©duire ces risques ?

Les dĂ©ploiements LLM comportent des risques uniques en matière de donnĂ©es :

  • EntrĂ©e utilisateur illimitĂ©e Les utilisateurs peuvent saisir des informations extrĂŞmement sensibles dans les chatbots et les interfaces basĂ©es sur l'IA. Il peut s'agir de donnĂ©es personnelles, de donnĂ©es clients ou d'informations rĂ©glementĂ©es que vous n'aviez jamais l'intention de collecter.
  • Fournisseurs de modèles tiers Une fois vos donnĂ©es transmises Ă  un prestataire LLM externe, vous ĂŞtes responsable de leur destination, de leur stockage et des sous-traitants impliquĂ©s. Cela a des consĂ©quences majeures en matière de RGPD, de rĂ©sidence des donnĂ©es et de confiance des clients.
  • La tĂ©lĂ©mĂ©trie comme deuxième copie de donnĂ©es sensibles â€“ Si votre pile d'observabilitĂ© envoie des charges utiles complètes Ă  un fournisseur SaaS, vous disposez dĂ©sormais d'une autre copie de ces informations sensibles en dehors de votre environnement.

L'architecture des couvre-sols est conçue pour rĂ©pondre prĂ©cisĂ©ment Ă  ces prĂ©occupations :

  • Nous utilisons un modèle BYOD (Bring Your Own Cloud) oĂą l'ensemble du système d'observabilitĂ© s'exĂ©cute au sein de votre compte cloud, dans un sous-compte, sous la forme d'un plan de donnĂ©es entièrement gĂ©rĂ©. Le plan de contrĂ´le qui assure la mise Ă  l'Ă©chelle et la gestion est gĂ©rĂ© par nos soins, mais nous n'accĂ©dons pas Ă  vos donnĂ©es de tĂ©lĂ©mĂ©trie, ne les stockons pas et ne les traitons pas.
  • Grâce Ă  notre capacitĂ© Ă  capturer les donnĂ©es en toute sĂ©curitĂ© dans votre environnement, vous pouvez observer les invites, les rĂ©ponses et les flux de travail sans que ces donnĂ©es ne quittent votre cloud. Vos traces LLM ne sont stockĂ©es chez aucun tiers et vous n'avez aucun souci Ă  vous faire concernant les sorties de donnĂ©es.
  • Grâce Ă  cette visibilitĂ©, vous pouvez voir qui tĂ©lĂ©charge quoi et oĂą cela circule, dĂ©tecter toute utilisation inattendue de donnĂ©es sensibles et appliquer des politiques concernant les modèles et les rĂ©gions autorisĂ©s.

Autrement dit, l'observabilité devient non seulement un outil de fiabilité et de réduction des coûts, mais aussi un point de contrôle clé pour la confidentialité, la résidence des données et la conformité.

À mesure que les organisations passent d'une seule intégration LLM à de nombreux services basés sur l'IA, quels défis opérationnels ont tendance à apparaître en matière de visibilité, de fiabilité et de coût ?

La première intĂ©gration concerne gĂ©nĂ©ralement un seul modèle dans un seul flux de travail. Ă€ ce stade, tout semble gĂ©rable. Dès que les Ă©quipes constatent la valeur ajoutĂ©e, l'utilisation explose et plusieurs dĂ©fis apparaissent :

  • ProlifĂ©ration des modèles et des fournisseurs â€“ Les Ă©quipes testent constamment de nouveaux modèles. On ne sait plus très bien lesquels sont en production et comment ils sont utilisĂ©s.
  • Les coĂ»ts imprĂ©vus liĂ©s Ă  l'utilisation des jetons La consommation de jetons augmente avec la longueur du contexte et la complexitĂ© du flux de travail. Sans visibilitĂ© sur l'utilisation des jetons par modèle et flux de travail, la gestion des coĂ»ts est très difficile.
  • DĂ©pendance de la fiabilitĂ© vis-Ă -vis des fournisseurs externes â€“ Les API destinĂ©es aux utilisateurs deviennent sensibles Ă  la latence ou aux erreurs des modèles, ce qui peut perturber les SLA mĂŞme lorsque l'infrastructure de base est saine.
  • Dette croissante liĂ©e Ă  l'instrumentation L’observabilitĂ© traditionnelle suppose qu’il est possible d’ajouter des instruments au besoin. Dans les environnements d’IA en constante Ă©volution, les dĂ©veloppeurs ont rarement le temps de s’en occuper.

Groundcover rĂ©sout ces problèmes en dĂ©tectant automatiquement le trafic IA et en vous fournissant ensuite :

  • VisibilitĂ© centralisĂ©e sur les modèles et les fournisseurs utilisĂ©s.
  • Tableaux de bord affichant la latence, le dĂ©bit et l'utilisation des jetons au fil du temps.
  • CorrĂ©lation entre le comportement des LLM et les services qui en dĂ©pendent
  • Alertes en cas de violation des SLO pilotĂ©e par l'IA.

Cela facilite grandement le passage d'une « fonctionnalité d'IA intéressante » à une « IA intégrée à des dizaines de services critiques » sans perdre le contrôle.

Pour les cinq prochaines années, comment prévoyez-vous l'évolution de l'observabilité LLM, compte tenu de l'accélération de l'IA agentielle, de l'orchestration multi-modèles et des pressions réglementaires ?

Nous n'en sommes qu'aux prĂ©mices. Au cours des cinq prochaines annĂ©es, je m'attends Ă  quelques changements majeurs :

  • De la comprĂ©hension au niveau de la requĂŞte jusqu'au niveau de l'agent â€“ L’observabilitĂ© s’étendra pour capturer les sĂ©quences d’outils, les chemins de raisonnement et la logique de nouvelle tentative, et non plus seulement les appels de modèles.
  • Des signaux sĂ©mantiques et politiques plus riches â€“ Les contrĂ´les de qualitĂ© automatisĂ©s concernant les hallucinations, les problèmes de sĂ©curitĂ© et la conformitĂ© Ă  la marque deviendront des indicateurs standard.
  • Un lien plus Ă©troit avec la gouvernance et la protection de la vie privĂ©e â€“ Ă€ mesure que la rĂ©glementation se dĂ©veloppe, l’observabilitĂ© servira Ă©galement de couche de contrĂ´le et d’audit pour la rĂ©sidence des donnĂ©es, leur conservation et l’utilisation des modèles approuvĂ©s.
  • Optimisation inter-modèles et multi-fournisseurs â€“ Les Ă©quipes achemineront le trafic entre les modèles de manière dynamique en fonction des performances et des coĂ»ts, guidĂ©es par des donnĂ©es d'observabilitĂ© en temps rĂ©el.
  • Moins d'instrumentation manuelle â€“ Des techniques comme la collecte basĂ©e sur eBPF et la dĂ©couverte automatique deviendront la norme, permettant ainsi aux Ă©quipes d'innover sans ralentissement.

En bref, l'observabilité LLM évoluera de simples « tableaux de bord utiles pour l'IA » vers le système nerveux central qui relie la fiabilité, le contrôle des coûts, la gouvernance des données et la qualité des produits dans tout ce qu'une organisation fait avec l'IA.

Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter couverture de sol.

Antoine est un leader visionnaire et partenaire fondateur d'Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et on le surprend souvent en train de s'extasier sur le potentiel des technologies disruptives et de l'AGI.

En futuriste, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. En outre, il est le fondateur de Titres.io, une plateforme axée sur l’investissement dans les technologies de pointe qui redéfinissent l’avenir et remodèlent des secteurs entiers.