talon Daniel Ciolek, responsable de la recherche et du développement chez InvGate - Série d'interviews - Unite.AI
Suivez nous sur

Interviews

Daniel Ciolek, responsable de la recherche et du développement chez InvGate – Série d'entretiens

mm

Publié le

 on

Daniel est un professionnel passionné de l'informatique avec plus de 15 ans d'expérience dans l'industrie. Il est titulaire d'un doctorat. en informatique et une longue carrière dans la recherche technologique. Ses intérêts portent sur plusieurs domaines, tels que l'intelligence artificielle, le génie logiciel et le calcul haute performance.

Daniel est responsable de la recherche et du développement chez InvGate, où il dirige les initiatives de R&D. Il travaille en collaboration avec les équipes de développement produit et commercial pour concevoir, mettre en œuvre et suivre la stratégie R&D de l'entreprise. Quand il ne fait pas de recherche, il enseigne.

InvGate donne aux organisations les moyens de fournir les outils nécessaires pour fournir un service transparent entre les départements, de l'informatique aux installations.

Quand et comment avez-vous commencé à vous intéresser à l’informatique ?

Mon intérêt pour l'informatique remonte à ma petite enfance. J'ai toujours été fasciné par les appareils électroniques, et je me suis souvent retrouvé à explorer et à essayer de comprendre leur fonctionnement. En grandissant, cette curiosité m’a conduit au codage. Je me souviens encore du plaisir que j'ai eu à écrire mes premiers programmes. À partir de ce moment-là, il n’y avait aucun doute dans mon esprit : je voulais poursuivre une carrière en informatique.

Vous dirigez actuellement des initiatives de R&D et mettez en œuvre de nouvelles applications d’IA générative. Pouvez-vous discuter de certains de vos travaux ?

Absolument. Dans notre département R&D, nous abordons des problèmes complexes qui peuvent être difficiles à représenter et à résoudre efficacement. Notre travail ne se limite pas aux applications d’IA générative, mais les progrès récents dans ce domaine ont créé une multitude d’opportunités que nous souhaitons exploiter.

L'un de nos principaux objectifs chez InvGate a toujours été d'optimiser la convivialité de nos logiciels. Nous y parvenons en surveillant la manière dont il est utilisé, en identifiant les goulots d'étranglement et en travaillant avec diligence pour les éliminer. L'un de ces goulots d'étranglement que nous avons souvent rencontrés est lié à la compréhension et à l'utilisation du langage naturel. Il s’agissait d’un problème particulièrement difficile à résoudre sans l’utilisation de grands modèles linguistiques (LLM).

Cependant, avec l'émergence récente de LLM rentables, nous avons pu rationaliser ces cas d'utilisation. Nos capacités incluent désormais la fourniture de recommandations de rédaction, la rédaction automatique d'articles dans la base de connaissances et la synthèse de nombreux textes, parmi de nombreuses autres fonctionnalités basées sur le langage.

Chez InvGate, votre équipe applique une stratégie appelée « IA agnostique ». Pourriez-vous définir ce que cela signifie et pourquoi c’est important ?

L’IA agnostique est fondamentalement une question de flexibilité et d’adaptabilité. Essentiellement, il s’agit de ne pas s’engager envers un seul modèle ou fournisseur d’IA. Au lieu de cela, nous visons à garder nos options ouvertes, en tirant parti du meilleur de chaque fournisseur d’IA, tout en évitant le risque d’être enfermé dans un seul système.

Vous pouvez y penser comme ceci : devrions-nous utiliser le GPT d'OpenAI, Gemini de Google ou Llama-2 de Meta pour nos fonctionnalités d'IA générative ? Devons-nous opter pour un déploiement cloud avec paiement à l'utilisation, une instance gérée ou un déploiement auto-hébergé ? Ce ne sont pas des décisions triviales, et elles peuvent même changer au fil du temps, à mesure que de nouveaux modèles sont lancés et que de nouveaux fournisseurs entrent sur le marché.

L’approche Agnostic AI garantit que notre système est toujours prêt à s’adapter. Notre implémentation comporte trois composants clés : une interface, un routeur et les modèles d'IA eux-mêmes. L'interface résume les détails de mise en œuvre du système d'IA, ce qui permet aux autres parties de notre logiciel d'interagir plus facilement avec lui. Le routeur décide où envoyer chaque requête en fonction de divers facteurs tels que le type de requête et les capacités des modèles d'IA disponibles. Enfin, les modèles effectuent les tâches d'IA réelles, qui peuvent nécessiter des processus personnalisés de prétraitement des données et de formatage des résultats.

Pouvez-vous décrire les aspects méthodologiques qui guident votre processus décisionnel lors de la sélection des modèles et des fournisseurs d’IA les plus adaptés à des tâches spécifiques ?

Pour chaque nouvelle fonctionnalité que nous développons, nous commençons par créer un benchmark d’évaluation. Ce benchmark est conçu pour évaluer l’efficacité de différents modèles d’IA dans la résolution de la tâche à accomplir. Mais nous ne nous concentrons pas uniquement sur les performances, nous prenons également en compte la vitesse et le coût de chaque modèle. Cela nous donne une vue globale de la valeur de chaque modèle, nous permettant de choisir l'option la plus rentable pour l'acheminement des demandes.

Cependant, notre processus ne s'arrête pas là. Dans le domaine en évolution rapide de l’IA, de nouveaux modèles sont constamment publiés et ceux existants sont régulièrement mis à jour. Ainsi, chaque fois qu'un modèle nouveau ou mis à jour devient disponible, nous réexécutons notre référence d'évaluation. Cela nous permet de comparer les performances du modèle nouveau ou mis à jour avec celles de notre sélection actuelle. Si un nouveau modèle surpasse le modèle actuel, nous mettons alors à jour notre module de routeur pour refléter ce changement.

Quels sont les défis liés à la transition transparente entre différents modèles et fournisseurs d’IA ?

Passer de manière transparente entre différents modèles et fournisseurs d’IA présente en effet un ensemble de défis uniques.

Premièrement, chaque fournisseur d’IA nécessite des entrées formatées de manière spécifique, et les modèles d’IA peuvent réagir différemment aux mêmes demandes. Cela signifie que nous devons optimiser individuellement pour chaque modèle, ce qui peut être assez complexe compte tenu de la variété des options.

Deuxièmement, les modèles d’IA ont des capacités différentes. Par exemple, certains modèles peuvent générer une sortie au format JSON, une fonctionnalité qui s'avère utile dans bon nombre de nos implémentations. D'autres peuvent traiter de grandes quantités de texte, ce qui nous permet d'utiliser un contexte plus complet pour certaines tâches. La gestion de ces capacités pour maximiser le potentiel de chaque modèle constitue une partie essentielle de notre travail.

Enfin, nous devons garantir que les réponses générées par l’IA peuvent être utilisées en toute sécurité. Les modèles d’IA générative peuvent parfois produire des « hallucinations » ou générer des réponses fausses, hors contexte, voire potentiellement dangereuses. Pour atténuer ce problème, nous mettons en œuvre des filtres de désinfection post-traitement rigoureux pour détecter et filtrer les réponses inappropriées.

Comment l'interface est-elle conçue au sein de votre système d'IA agnostique pour garantir qu'elle résume efficacement les complexités des technologies d'IA sous-jacentes pour des interactions conviviales ?

La conception de notre interface est le fruit d’un effort collaboratif entre la R&D et les équipes d’ingénierie. Nous travaillons fonctionnalité par fonctionnalité, définissant les exigences et les données disponibles pour chaque fonctionnalité. Ensuite, nous concevons une API qui s'intègre parfaitement au produit, en la mettant en œuvre dans notre service IA interne. Cela permet aux équipes d'ingénierie de se concentrer sur la logique métier, tandis que notre service IA gère les complexités liées aux relations avec différents fournisseurs d'IA.

Ce processus ne repose pas sur une recherche de pointe, mais plutôt sur l'application de pratiques éprouvées en matière d'ingénierie logicielle.

Compte tenu des opérations mondiales, comment InvGate relève-t-il le défi de la disponibilité régionale et de la conformité aux réglementations locales en matière de données ?

Garantir la disponibilité régionale et le respect des réglementations locales en matière de données est un élément crucial de nos opérations chez InvGate. Nous sélectionnons soigneusement les fournisseurs d'IA qui peuvent non seulement fonctionner à grande échelle, mais également respecter les normes de sécurité les plus strictes et se conformer aux réglementations régionales.

Par exemple, nous prenons uniquement en compte les fournisseurs qui adhèrent à des réglementations telles que le Règlement général sur la protection des données (RGPD) dans l'UE. Cela garantit que nous pouvons déployer nos services en toute sécurité dans différentes régions, avec la certitude que nous opérons dans le cadre juridique local.

Les principaux fournisseurs de cloud tels qu'AWS, Azure et Google Cloud satisfont à ces exigences et offrent une large gamme de fonctionnalités d'IA, ce qui en fait des partenaires appropriés pour nos opérations mondiales. De plus, nous surveillons en permanence les changements dans les réglementations locales en matière de données pour garantir une conformité continue, en ajustant nos pratiques si nécessaire.

Comment l'approche d'InvGate en matière de développement de solutions informatiques a-t-elle évolué au cours de la dernière décennie, notamment avec l'intégration de l'IA générative ?

Au cours de la dernière décennie, l'approche d'InvGate en matière de développement de solutions informatiques a considérablement évolué. Nous avons élargi notre base de fonctionnalités avec des fonctionnalités avancées telles que les flux de travail automatisés, la découverte de périphériques et la base de données de gestion de configuration (CMDB). Ces fonctionnalités ont grandement simplifié les opérations informatiques de nos utilisateurs.

Récemment, nous avons commencé à intégrer GenAI dans nos produits. Cela a été rendu possible grâce aux progrès récents des fournisseurs de LLM, qui ont commencé à proposer des solutions rentables. L'intégration de GenAI nous a permis d'améliorer nos produits avec un support basé sur l'IA, rendant nos solutions plus efficaces et plus conviviales.

Même s’il n’en est encore qu’à ses débuts, nous prévoyons que l’IA deviendra un outil omniprésent dans les opérations informatiques. À ce titre, nous prévoyons de continuer à faire évoluer nos produits en intégrant davantage les technologies d’IA.

Pouvez-vous expliquer comment l'IA générative au sein d'AI Hub améliore la rapidité et la qualité des réponses aux incidents informatiques courants ?

L'IA générative de notre AI Hub améliore considérablement à la fois la rapidité et la qualité des réponses aux incidents informatiques courants. Pour ce faire, il suit un processus en plusieurs étapes :

Premier contact: Lorsqu'un utilisateur rencontre un problème, il peut ouvrir une discussion avec notre agent virtuel (VA) alimenté par l'IA et décrire le problème. Le VA recherche de manière autonome dans la base de connaissances (KB) de l'entreprise et dans une base de données publique de guides de dépannage informatique, fournissant ainsi des conseils de manière conversationnelle. Cela résout souvent le problème rapidement et efficacement.

Création de billets: Si le problème est plus complexe, le VA peut créer un ticket, extrayant automatiquement les informations pertinentes de la conversation.

Attribution de ticket: le système attribue le ticket à un agent de support en fonction de la catégorie du ticket, de sa priorité et de l'expérience de l'agent avec des problèmes similaires.

Interaction des agents: L'agent peut contacter l'utilisateur pour obtenir des informations supplémentaires ou pour l'informer que le problème a été résolu. L'interaction est améliorée grâce à l'IA, fournissant des recommandations d'écriture pour améliorer la communication.

Escalade: Si le problème nécessite une escalade, les fonctionnalités de synthèse automatique aident les responsables à comprendre rapidement le problème.

Analyse post-mortem: Une fois le ticket fermé, l'IA effectue une analyse des causes profondes, facilitant l'analyse post-mortem et les rapports. L’agent peut également utiliser l’IA pour rédiger un article dans la base de connaissances, facilitant ainsi la résolution de problèmes similaires à l’avenir.

Bien que nous ayons déjà implémenté la plupart de ces fonctionnalités, nous travaillons continuellement sur de nouvelles améliorations et améliorations.

Avec les fonctionnalités à venir telles que l’agent virtuel MS Teams plus intelligent, quelles sont les améliorations attendues dans les expériences d’assistance conversationnelle ?

Une voie prometteuse consiste à étendre l’expérience conversationnelle en un « copilote », capable non seulement de répondre aux questions et d’entreprendre des actions simples, mais également d’entreprendre des actions plus complexes au nom des utilisateurs. Cela pourrait être utile pour améliorer les capacités de libre-service des utilisateurs, ainsi que pour fournir des outils puissants supplémentaires aux agents. À terme, ces puissantes interfaces conversationnelles feront de l’IA un compagnon omniprésent.

Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter InvGate

Partenaire fondateur d'unite.AI et membre du Conseil technologique de Forbes, Antoine est un futuriste qui est passionné par l'avenir de l'IA et de la robotique.

Il est également le fondateur de Titres.io, un site Web axé sur l'investissement dans les technologies de rupture.