Leaders d’opinion
Lorsque « Chatbot » est un mot sale : 3 idées fausses que les dirigeants d’entreprise ont sur l’IA conversationnelle
La prolifération des LLM comme OpenAI’s ChatGPT, Meta’s Llama et Anthropic’s Claude a conduit à un chatbot pour chaque occasion. Il y a des chatbots pour les conseils de carrière, des chatbots qui vous permettent de parler à votre futur moi, et même un chatbot de poulet qui donne des conseils de cuisine.
Mais ceux-ci ne sont pas les chatbots d’il y a dix ans – à l’époque, ils étaient limités à des « conversations » étroites et rigides, souvent basées sur un grand graphique de flux avec des choix multiples ou des réponses équivalentes. En essence, ils n’étaient que légèrement plus sophistiqués que les menus téléphoniques IVR pré-internet.
Les « chatbots » d’aujourd’hui, en revanche, font plus fréquemment référence à l’IA conversationnelle, un outil avec des capacités et des cas d’utilisation beaucoup plus larges. Et parce que nous nous trouvons actuellement au milieu du cycle d’hype de l’IA générative, ces trois termes sont utilisés de manière interchangeable. Malheureusement, en conséquence, il y a de nombreux malentendus autour des risques, des cas d’utilisation et du ROI de l’investissement dans l’IA conversationnelle parmi les dirigeants d’entreprise, en particulier dans les industries hautement réglementées comme la finance.
Je voudrais donc rectifier certains malentendus courants autour des « chatbots », lorsque ce dont nous discutons en réalité est l’IA conversationnelle.
Mythe 1 : Les clients détestent les chatbots
Les consommateurs ont été invités pendant la majeure partie de la dernière décennie à dire s’ils préfèrent les agents humains ou les chatbots – ce qui est comme demander à quelqu’un s’il préfère un massage professionnel ou s’asseoir dans un fauteuil de massage d’un centre commercial.
Mais le lancement de ChatGPT en 2022 (ainsi que tous les outils qui en ont découlé) a complètement changé notre perception des capacités d’un chatbot. Comme mentionné ci-dessus, les anciens chatbots fonctionnaient sur des scripts, de telle sorte que toute déviation de leurs chemins prescrits conduisait souvent à la confusion et à des réponses inefficaces. Incapables de comprendre le contexte et l’intention de l’utilisateur, les réponses données étaient souvent génériques et inutiles, et ils avaient une capacité limitée à recueillir, stocker et fournir des informations.
En revanche, l’IA conversationnelle engage les gens dans des conversations naturelles qui imitent la parole humaine, permettant un échange plus fluide et intuitif. Elle démontre une flexibilité et une adaptabilité remarquables face à des résultats inattendus. Elle est capable de comprendre le contexte entourant l’intention de l’utilisateur, de détecter les émotions et de répondre de manière empathique.
Ce niveau de compréhension plus profond permet à l’IA d’actuel de naviguer efficacement les utilisateurs vers leurs objectifs. Cela inclut de passer rapidement les clients à des assistants humains lorsque nécessaire. De plus, l’IA conversationnelle utilise des filtres d’information avancés, des mécanismes de récupération et la capacité de conserver des données pertinentes, améliorant considérablement leurs capacités de résolution de problèmes, ce qui se traduit par une meilleure expérience utilisateur.
Donc, ce n’est pas que les clients détestent aveuglément les chatbots, ce qu’ils détestent, c’est un mauvais service, que les anciennes versions des chatbots ont définitivement livré. Les agents conversationnels d’aujourd’hui sont tellement plus sophistiqués que plus d’un quart des consommateurs n’ont pas confiance dans leur capacité à faire la différence entre les agents humains et les agents IA, et certains perçoivent les chatbots IA comme étant meilleurs à certaines tâches que leurs homologues humains.
Dans les pilotes de test, mon entreprise a vu les agents IA tripler les taux de conversion des leads, ce qui est un indicateur assez puissant que ce n’est pas à propos du fait que ce soit un bot – c’est à propos de la qualité du travail effectué.
Mythe 2 : Les chatbots sont trop risqués
Lors de discussions avec les dirigeants d’entreprise sur l’IA, des préoccupations surgissent souvent autour des hallucinations, de la protection des données et des préjugés pouvant conduire à des violations réglementaires. Bien que ces risques soient légitimes, ils peuvent tous être atténués grâce à quelques approches différentes : fine-tuning, Retrieval-Augmented Generation (RAG) et ingénierie de prompt.
Bien que ce ne soit pas disponible sur tous les LLM, le fine-tuning peut spécialiser un modèle pré-entraîné pour une tâche ou un domaine spécifique, ce qui donne un IA mieux adapté aux besoins spécifiques. Par exemple, une entreprise de soins de santé pourrait affiner un modèle pour mieux comprendre et répondre aux demandes médicales.
Le RAG améliore la précision du chatbot en intégrant dynamiquement des connaissances externes. Cela permet au chatbot de récupérer des informations à jour à partir de bases de données externes. Par exemple, un chatbot de services financiers pourrait utiliser le RAG pour fournir des réponses en temps réel sur les prix des actions.
Enfin, l’ingénierie de prompt optimise les LLM en créant des prompts qui guident le chatbot pour produire des réponses plus précises ou plus conscientes du contexte. Par exemple, une plateforme de commerce électronique pourrait utiliser des prompts personnalisés pour aider le chatbot à fournir des recommandations de produits personnalisées en fonction des préférences et de l’historique de recherche du client.
En plus d’utiliser une ou plusieurs de ces approches, vous pouvez également contrôler la « température » de créativité d’un IA conversationnel pour aider à prévenir les hallucinations. La définition d’une température plus basse dans les appels API limite l’IA à fournir des réponses plus déterministes et cohérentes, en particulier lorsqu’elle est combinée avec une base de connaissances qui garantit que l’IA tire de jeux de données spécifiés et fiables. Pour atténuer davantage les risques, évitez de déployer l’IA dans des rôles de prise de décision où les préjugés ou les informations erronées pourraient conduire à des problèmes juridiques.
En ce qui concerne la confidentialité des données, assurez-vous que les fournisseurs externes d’IA sont conformes aux réglementations, ou déployez des modèles open source sur votre propre infrastructure pour conserver le contrôle total de vos données, essentiel pour la conformité au RGPD.
Enfin, il est toujours sage d’investir dans une assurance de responsabilité professionnelle qui peut offrir une protection supplémentaire, couvrant les entreprises dans des scénarios peu probables tels que des poursuites judiciaires intentées. Grâce à ces mesures, les entreprises peuvent utiliser l’IA en toute confiance tout en maintenant la sécurité de leur marque et de leurs clients.
Mythe 3 : Les chatbots ne sont pas prêts pour les tâches complexes
Après avoir vu les problèmes que les grandes entreprises de technologie ont en déployant des outils d’IA, il peut sembler naïf de penser qu’une PME aurait plus de facilité. Mais l’IA est actuellement à un stade où la phrase « jack of all trades and master of none » n’est pas terriblement inexacte. Cela est principalement dû au fait que ces outils sont invités à effectuer trop de tâches différentes dans des environnements qui ne sont pas encore conçus pour un déploiement d’IA efficace. En d’autres termes, ce n’est pas qu’ils ne sont pas capables, c’est qu’ils sont invités à patiner sur une patinoire remplie de glace fine et fracturée.
Par exemple, les organisations avec des données silotées et/ou désorganisées seront plus enclines à voir l’IA afficher des informations obsolètes, inexactes ou contradictoires. Ironiquement, c’est une conséquence de leur complexité ! Alors que les anciens chatbots ne faisaient que régurgiter des informations de base de manière linéaire, l’IA conversationnelle peut analyser des ensembles de données robustes, en tenant compte de plusieurs facteurs influents à la fois pour tracer le chemin le plus approprié vers l’avant.
Par conséquent, le succès avec l’IA conversationnelle est subordonné à des paramètres stricts et à des limites extrêmement claires concernant les sources de données et les tâches. Avec les bonnes données de formation et des prompts conçus par des experts, la fonctionnalité de l’IA conversationnelle peut aller bien au-delà de la portée d’un simple chatbot. Par exemple, elle peut rassembler et filtrer des données à partir de conversations client et les utiliser pour mettre automatiquement à jour un CRM. Cela ne simplifie pas seulement les tâches administratives, mais garantit également que les informations client sont constamment exactes et à jour. En automatisant de telles tâches, les entreprises peuvent se concentrer davantage sur les activités stratégiques plutôt que sur les fardeaux administratifs.
Si nous allons continuer à utiliser le terme « chatbot », il est impératif que nous distinguions les plateformes qui intègrent une IA conversationnelle de pointe et celles qui offrent toujours les outils limités d’hier. De la même manière qu’aujourd’hui, le mot « téléphone » évoque plus souvent l’image d’un smartphone tactile qu’un téléphone filaire, je crois que nous ne sommes pas loin de voir « chatbot » être remplacé par l’idée d’agents IA avancés plutôt que des avatars à choix multiples maladroits.












