Connect with us

Interviews

Mike Clifton, Co-CEO d’Alorica – Série d’entretiens

mm

Mike Clifton est le co-PDG d’Alorica, un leader mondial des expériences client numériques (CX). Dans ce rôle, Mike supervise la stratégie de transformation numérique de l’entreprise – y compris ses produits AI primés – pour offrir une expérience client optimale sur tous les canaux (voix, chat, web, etc.) et dans tous les secteurs pour le compte des marques du FORTUNE 500. Avec une solide expertise et une expérience dans l’innovation numérique, l’IA et la technologie d’entreprise, Mike a un historique de croissance rentable en intégrant des solutions technologiques évolutives pour répondre aux demandes changeantes du marché.

Alorica est un leader mondial de l’expérience client et de l’externalisation des processus métier, offrant des solutions technologiques et centrées sur l’humain pour des secteurs tels que la banque, les soins de santé, la vente au détail et les télécommunications. Avec plus de 100 000 employés dans 17 pays et plus, l’entreprise gère des milliards d’interactions par an dans plus de 75 langues, offrant des services tels que des centres de contact, des analyses, des solutions d’IA, une modération de contenu et des opérations de back-office – le tout axé sur la production de résultats mesurables pour les clients.

L’industrie se dirige vers l’augmentation plutôt que l’automatisation – comment la stratégie d’Alorica reflète-t-elle ce modèle hybride ?

La stratégie d’Alorica reflète le modèle hybride d’augmentation plutôt que d’automatisation en se concentrant sur l’amélioration de la performance des agents humains avec des outils d’IA, plutôt que de les remplacer. Cette approche garantit que les humains restent au cœur des interactions client, soutenus par des technologies avancées pour améliorer l’efficacité et l’efficience.

Par exemple, Alorica a lancé plusieurs solutions avancées telles que evoAI, Knowledge IQ, Digital Trust & Safety Model et CX2GO®. Ces outils sont conçus pour amplifier la performance des agents humains en fournissant des interactions en temps réel et sensibles au contexte qui améliorent la gestion des connaissances et assurent la confiance et la sécurité numériques.

En intégrant des outils d’IA qui offrent des interactions intelligentes et sensibles au contexte dans plusieurs langues avec des temps de réponse inférieurs à une seconde, Alorica permet aux agents de fournir un soutien personnalisé et efficace aux clients. Cette réactivité en temps réel se traduit par de meilleurs résultats pour les clients.

Dans l’ensemble, la stratégie d’Alorica met l’accent sur l’importance des agents humains tout en exploitant l’IA pour améliorer leurs capacités, reflétant le déplacement de l’industrie vers l’augmentation plutôt que l’automatisation.

Pouvez-vous partager des exemples spécifiques où l’IA a amplifié la performance des agents humains plutôt que de les remplacer ?

Il existe de nombreux exemples d’amplification que nous avons exploités dans la prestation de nos services. L’un d’entre eux est la capacité des agents à interagir avec un moteur de connaissances qui écoute la parole en temps réel et la traduit en un moteur de réponse automatique qui sollicite une assistance ; c’est un outil puissant et préventif que nous avons utilisé dans de nombreuses solutions. Un autre exemple est l’utilisation de moteurs de conversation d’IA pour améliorer notre capacité à former des agents aux scénarios client les plus difficiles. En exécutant des simulations d’IA d’interactions en temps réel, nous réduisons le stress et les modèles apprennent continuellement – en mettant à jour les agents sur le sentiment et l’empathie à mesure qu’ils gagnent de l’expérience.

Comment suivez-vous l’impact de la performance de ces outils d’IA – par exemple, en termes de résolution du premier contact, de temps de traitement ou d’efficacité des agents ?

Le suivi des outils d’IA dans une utilisation augmentée relève des métriques attribuées à l’agent comme si aucun outil n’existait. La différence réside dans la capacité à prendre en charge plus d’appels avec un rendement de satisfaction plus élevé et la confiance de prédire de meilleures stratégies de main-d’œuvre lorsque vous disposez de données solides provenant des modèles.

Vous avez lancé plusieurs solutions avancées cette année – evoAI, Knowledge IQ, Digital Trust & Safety Model et CX2GO®. Laquelle de ces solutions a, selon vous, le plus d’impact immédiat sur les agents, et pourquoi ?

Notre utilisation interne d’evoAI donne aux agents la capacité d’utiliser des appels de simulation pour se former avec un degré plus élevé de conscience situationnelle, produisant ainsi l’impact le plus important. Cela est suivi de Knowledge IQ, qui améliore la capacité d’un agent à trouver la bonne réponse. Ces deux outils ont été des jeux changements pour nos employés, changeant complètement la façon dont nos agents peuvent répondre rapidement et avec précision aux besoins des clients.

D’un point de vue d’apprentissage automatique, comment vos modèles sont-ils formés pour maintenir l’exactitude et l’adaptabilité à mesure que les besoins des clients, la langue et les conditions du marché évoluent ?

Pour maintenir l’exactitude et l’adaptabilité face à l’évolution des besoins des clients, de la langue et des conditions du marché, nos modèles d’apprentissage automatique subissent une formation et un raffinement continus.

Voici certaines des stratégies clés que nous employons :

  • Apprentissage continu : Nos modèles sont conçus pour apprendre de nouvelles données en continu. Cela implique de mettre à jour régulièrement les ensembles de données de formation avec des interactions récentes, des commentaires et des tendances du marché. En incorporant les dernières informations, nos modèles peuvent s’adapter aux préférences changeantes des clients et aux conditions émergentes du marché.
  • Sources de données diverses : Nous utilisons une large gamme de sources de données pour former nos modèles, y compris des interactions client, des médias sociaux, des rapports de marché et plus encore. Cette diversité garantit que nos modèles sont exposés à divers scénarios et nuances linguistiques, améliorant leur capacité à comprendre et à répondre avec précision.
  • Boucles de rétroaction : Nous mettons en œuvre des boucles de rétroaction solides où les interactions client et les entrées d’agent sont utilisées pour affiner les modèles. Cette rétroaction en temps réel aide à identifier et à corriger les inexactitudes afin que les modèles restent pertinents et efficaces.
  • Capacités multilingues : Nos modèles sont formés sur des ensembles de données multilingues pour gérer les interactions dans plusieurs langues. Cela est crucial pour fournir des réponses précises, localisées et sensibles au contexte à une base de clients mondiaux.
  • Audits et évaluations réguliers : Nous réalisons des audits et des évaluations réguliers de nos modèles pour évaluer leur performance. Cela inclut des tests des modèles contre des ensembles de données de référence et des scénarios du monde réel pour garantir qu’ils répondent aux normes d’exactitude et d’adaptabilité.
  • Humain dans la boucle : Nous maintenons une approche humain dans la boucle où les agents humains collaborent avec l’IA pour gérer des requêtes complexes. Ce modèle hybride garantit que la technologie apprend de l’expertise humaine et améliore ses performances avec le temps.
  • Utilisation de modèles de langage plus petits : La formation de modèles plus petits (via une approche hybride ou d’ensemble) aux côtés de LLM commercialement disponibles permet des efficacités en termes de calcul, de recherche et de temps de réponse, tout en raccourcissant les cycles de test des biais et de l’équité.

Ces stratégies permettent à nos modèles d’apprentissage automatique de rester exacts, adaptables et capables de fournir des expériences client de haute qualité dans des environnements dynamiques.

evoAI offre des interactions intelligentes et sensibles au contexte dans plus de 120 langues avec des temps de réponse inférieurs à une seconde. Comment cette réactivité en temps réel se traduit-elle en un soutien aux agents et en résultats pour les clients ?

evoAI offre un meilleur soutien aux agents et de meilleurs résultats pour les clients de plusieurs manières :

  • Performance : Les interactions sensibles au contexte aident à trouver et à trier rapidement de vastes quantités d’informations pour les requêtes des agents.
  • Personnalisation : offre une adaptabilité multilingue, donnant la liberté de sélectionner les langues d’entrée et de sortie en temps réel pour n’importe quelle invite. Par exemple, un client demandant en anglais une réponse en français afin qu’un parent plus âgé écoutant puisse comprendre.
  • Efficacité : réduit les temps de réponse et élimine souvent le besoin d’une réponse humaine.
  • Intelligence émotionnelle : permet aux agents d’ajuster les options pour les appelants en fonction de la conscience situationnelle (ton, humeur et choix de mots), permettant une désescalade plus rapide.

Avec l’IA agente gagnant en traction, comment gérez-vous les risques tels que les hallucinations, les biais ou la perte de contrôle tout en garantissant que les agents restent les décideurs ?

Chez Alorica, nous croyons que l’architecture derrière la technologie fait toute la différence. C’est pourquoi la gestion des risques de l’IA agente nécessite un cadre de gouvernance à plusieurs couches que nous avons intégré à tous les niveaux de nos opérations d’IA.

Voici comment nous traitons chaque risque critique :

  • Atténuation des hallucinations : Nous employons un système de vérification à trois niveaux pour minimiser les hallucinations. Tout d’abord, nos modèles utilisent une génération assistée par récupération (RAG) qui ancre les réponses dans des bases de connaissances vérifiées et des sources de données en temps réel, réduisant la probabilité d’informations fabriquées de 85 %. Deuxièmement, nous mettons en œuvre un scoring de confiance sur toutes les suggestions générées par l’IA, où les réponses en dessous d’un seuil de confiance de 80 % déclenchent une révision humaine automatique. Troisièmement, nos modèles sont contraints pour fonctionner dans des espaces de paramètres définis spécifiques aux règles commerciales et aux domaines factuels de chaque client – l’IA ne peut pas générer d’informations sur des produits, des politiques ou des procédures qui ne sont pas explicitement documentés dans les données de formation.
  • Détection et prévention des biais : Notre stratégie de gestion des biais fonctionne sur l’ensemble du cycle de vie de l’IA. Lors de la formation du modèle, nous utilisons des techniques de débiasing adversatif et des algorithmes d’apprentissage équitables qui contrecarrent activement les biais historiques dans les données de formation. Nous maintenons des métriques de parité démographique dans les catégories protégées et effectuons des audits mensuels à l’aide d’outils tels que des indicateurs d’équité et des évaluations d’impact disparate. Nos modèles subissent des tests avec des données synthétiques conçues pour révéler les biais dans différents groupes démographiques, langues et contextes culturels. Lorsqu’un biais est détecté, nous employons une réformation ciblée sur des ensembles de données équilibrés et ajustons les poids du modèle pour garantir des résultats équitables. Importamment, nous maintenons des rapports de transparence qui suivent les métriques de biais dans le temps, permettant aux clients de voir exactement comment nos modèles se comportent dans différentes populations.
  • Maintien du contrôle humain : Les agents humains restent les décideurs ultimes grâce à notre architecture « IA en tant que conseiller ». Le système d’IA fournit des recommandations avec des fonctionnalités d’explication – les agents peuvent voir pourquoi l’IA a suggéré une action particulière, quels facteurs elle a pris en compte et quelles alternatives existent. Nous avons mis en œuvre des arrêts d’urgence où l’IA ne peut pas exécuter de manière autonome certaines actions : les transactions financières, les modifications de contrats, les engagements juridiques ou les conseils de santé nécessitent toujours une autorisation humaine. Nos protocoles d’escalade acheminent automatiquement les scénarios complexes ou à haut risque vers des agents seniors ou des superviseurs lorsque l’IA détecte des situations en dehors de ses limites de compétence.
  • Supervision et interrupteurs d’arrêt continus : Chaque interaction d’IA est consignée et surveillée via notre Observatoire de performance de modèle, qui suit les écarts par rapport aux comportements attendus en temps réel. Nous maintenons des capacités de restauration instantanée et des « interrupteurs d’arrêt » à plusieurs niveaux – les composants individuels du modèle, les modèles entiers ou les fonctionnalités d’IA système peuvent être désactivés dans les secondes si un comportement anormal est détecté. Nos algorithmes de détection de dérive comparent continuellement les sorties de modèle avec les décisions d’experts humains, signalant les divergences pour un examen immédiat.
  • Validation humaine dans la boucle : Nous avons conçu des boucles de rétroaction où les agents notent les suggestions d’IA après chaque interaction, créant un système d’apprentissage continu qui s’adapte à l’expertise humaine. Nos agents les plus performants participent à des séances de calibration hebdomadaires où ils examinent les cas limites et aident à affiner les limites de décision de l’IA. Cela crée un modèle d’intelligence collaborative où le jugement humain façonne continuellement et contraint le comportement de l’IA.
  • Responsabilité et traçabilité : Chaque décision influencée par l’IA maintient une traçabilité complète montrant la recommandation de l’IA, le niveau de confiance, les sources de données utilisées et la décision finale de l’agent humain. Cela garantit la responsabilité et nous permet de continuellement améliorer nos modèles en fonction des résultats. Des audits réguliers de tierces parties valident nos pratiques de gestion des risques par rapport aux normes de l’industrie et aux exigences réglementaires.

En mettant en œuvre ces garanties complètes, nous nous assurons que nos systèmes d’IA agente augmentent les capacités humaines tout en maintenant l’agence humaine, les normes éthiques et le contrôle opérationnel.

Comment abordez-vous la réformation de modèle et l’apprentissage continu pour garantir que vos systèmes d’IA restent alignés sur les exigences de conformité et les nuances du sentiment client ?

L’approche d’Alorica en matière de réformation de modèle et d’apprentissage continu à Alorica IQ est basée sur un cadre MLOps robuste qui équilibre les exigences de conformité réglementaire avec l’optimisation de l’expérience client.

Nous avons mis en œuvre une architecture de réformation à plusieurs couches qui fonctionne sur différents rythmes. Nos modèles critiques pour la conformité subissent une détection de dérive quotidienne et des audits de performance hebdomadaires, avec des déclencheurs automatisés pour une réformation immédiate lors de changements réglementaires. Pour les modèles de sentiment client, nous exploitons des boucles de rétroaction en temps réel qui capturent les corrections des agents et les scores de satisfaction client, les intégrant dans notre pipeline de formation toutes les 72 heures.

Notre Couche d’intelligence de conformité agit comme un système de garde-fou, validant automatiquement les sorties de modèle par rapport à des cadres réglementaires spécifiques à chaque géographie – de la GDPR en Europe à la CCPA en Californie. Cette couche est mise à jour en continu via notre partenariat avec des fournisseurs de technologie juridique et des flux réglementaires, garantissant que nos systèmes d’IA restent conformes sans intervention manuelle.

Pour la nuance du sentiment, nous avons développé ce que nous appelons « embeddings de contexte culturel » dans Alorica IQ, l’incubateur d’innovation de l’entreprise. Ce sont des modèles régionaux affinés qui comprennent non seulement la langue mais les modèles de communication culturels. Par exemple, nos modèles reconnaissent que les niveaux de directivité varient considérablement entre les interactions client allemandes et japonaises, et ajustent leur scoring de sentiment en conséquence.

Nous maintenons des registres de modèles versionnés avec des capacités de restauration complète, nous permettant de revenir instantanément à des versions antérieures si la nouvelle formation introduit des comportements inattendus. Notre cadre de test A/B fonctionne en continu, comparant de nouvelles versions de modèles aux références de production sur des milliers d’interactions avant un déploiement complet.

Le plus important, nous avons établi un Protocole d’intégration de rétroaction humaine où nos meilleurs agents examinent régulièrement les cas limites et fournissent une rétroaction corrective, créant un cycle vertueux où l’expertise humaine améliore continuellement nos capacités d’IA. Cette approche a réduit les violations de conformité de 94 % tout en améliorant la précision de la détection du sentiment à 92 % dans toutes les langues prises en charge.

Avec l’expansion internationale rapide – en particulier sur des marchés tels que l’Inde, l’Égypte et l’EMEA – comment adaptez-vous votre approche IA-humaine aux besoins linguistiques et culturels divers ?

Nous croyons que la localisation ne consiste pas seulement à parler la langue – c’est refléter la culture.

Nos plateformes d’IA comme evoAI et ReVoLT sont calibrées pour capturer le ton, la nuance et le contexte dans des centaines de langues et de dialectes, de sorte que les interactions ressemblent à celles qui sont authentiques et familières. Mais nous n’arrêtons pas à la technologie. Nous embauchons des talents issus de chaque région, formons des équipes autour des attentes culturelles et adaptons notre conception de service pour refléter les normes locales. Ce modèle hybride garantit que chaque interaction est conçue pour ce marché.

En Inde, où nous soutenons 75 langues officielles plus de nombreux dialectes, nous avons déployé notre Architecture de mesh linguistique qui ne se contente pas de détecter l’accent mais comprend les indicateurs socio-économiques intégrés dans les modèles de parole. En Égypte, pour servir la région MENA plus large, nous avons développé des modèles spécifiques aux dialectes arabes qui distinguent entre l’arabe égyptien, l’arabe du Golfe et l’arabe levantin, avec une prise en charge spécialisée pour les registres formels (Fusha) versus informels (Ammiya). Nos modèles d’IA comprennent quand un client bascule d’un arabe formel à un arabe informel comme un signal émotionnel, déclenchant des techniques de désescalade appropriées en temps réel.

Dans les marchés EMEA, nous avons mis en œuvre ce que nous appelons « Conception d’IA première pour la réglementation ». Chaque déploiement par pays inclut des modules de conformité préconfigurés – des exigences de localisation des données strictes en Allemagne aux lois de protection de la langue en France nécessitant des interfaces en français en premier. Nos modèles sont formés non seulement sur la langue mais sur l’étiquette commerciale locale ; par exemple, notre déploiement allemand met l’accent sur la précision et la documentation détaillée, tandis que notre modèle italien permet plus de flexibilité conversationnelle.

La colonne vertébrale technique est notre Cadre d’apprentissage fédéré au sein d’Alorica IQ, où les modèles locaux apprennent à partir de données régionales sans que ces données quittent le pays, garantissant la souveraineté des données tout en bénéficiant des améliorations des modèles mondiaux. Nous maintenons des grappes de GPU régionales pour garantir une latence inférieure à 100 ms pour une assistance en temps réel aux agents.

Notre Équipe d’intelligence culturelle, composée d’experts linguistiques et de scientifiques du comportement de chaque région, valide continuellement les sorties de notre IA. Ils nous ont aidés à identifier plus de 3 000 scénarios spécifiques à la culture qui nécessitent une prise en charge spéciale – des observances religieuses affectant la disponibilité du service aux préférences de paiement locales qui impactent les flux de conversation.

Cette approche a donné des résultats impressionnants : nos opérations en Inde affichent des scores de satisfaction client 40 % plus élevés lors de l’utilisation de l’IA adaptée culturellement par rapport aux modèles génériques, et nos déploiements EMEA ont atteint des taux de résolution du premier contact de 98 % pour les requêtes spécifiques à la langue.

Comment les capacités d’evoAI à reconnaître et à s’adapter aux dialectes régionaux et aux signaux émotionnels contribuent-elles à stimuler l’adoption sur de nouveaux marchés ?

L’adoption s’accélère lorsque les gens sentent que la technologie « les comprend ». evoAI va au-delà de la traduction mot à mot en comprenant l’argot, l’accent et même le ton émotionnel en temps réel.

Les capacités sophistiquées d’evoAI en matière de reconnaissance de dialecte et d’émotion sont devenues notre principal facteur de différenciation pour la pénétration de nouveaux marchés, répondant directement au fossé de confiance qui souvent inhibe l’adoption de l’IA dans les marchés émergents.

D’un point de vue technique, evoAI exploite notre modèle d’Acoustic-Linguistic Fusion, qui traite simultanément les modèles phonétiques, les caractéristiques prosodiques et le contenu sémantique. Cette approche tri-modale nous permet de détecter des états émotionnels subtils exprimés différemment à travers les cultures. Par exemple, sur les marchés japonais, nous pouvons détecter « honne » versus « tatemae » (sentiments véritables versus façade publique) à travers des micro-variantes de hauteur et de rythme de parole, tandis que sur les marchés du Moyen-Orient, nous reconnaissons les dynamiques d’honneur-honte à travers des constructions de phrases et des modèles d’accentuation spécifiques.

Notre reconnaissance de dialecte va au-delà de la simple détection de l’accent. evoAI maintient des cartes de dialecte dynamiques qui comprennent les indicateurs socio-économiques intégrés dans les modèles de parole. En Inde, par exemple, le système reconnaît non seulement si quelqu’un parle le tamoul ou le telugu, mais peut identifier le niveau d’éducation et les origines urbaines versus rurales, permettant aux agents de calibrer leur style de communication en conséquence. Cette compréhension granulaire a augmenté les scores de confiance client de 67 % dans les programmes pilotes.

La couche d’intelligence émotionnelle utilise notre technologie de Contextual Emotion Graph, qui cartographie les trajectoires émotionnelles tout au long des conversations plutôt que juste le sentiment à un moment donné. Cela permet à evoAI de prédire l’escalade émotionnelle 30 secondes avant qu’elle ne se produise avec une précision de 89 %, donnant aux agents un temps crucial pour intervenir avec des techniques de désescalade spécifiques à cette culture.

Pour l’adoption de nouveaux marchés, notre laboratoire d’action a une stratégie de « localisation progressive » via Alorica IQ. Nous commençons par un modèle de base formé sur le contenu des médias du marché cible, des médias sociaux et du discours public. Dans les 30 premiers jours du déploiement, evoAI s’adapte aux modèles de client locaux via notre pipeline d’apprentissage actif, qui donne la priorité à l’apprentissage à partir de conversations avec la plus grande variance émotionnelle. D’ici 90 jours, nos modèles devraient atteindre 95 % de précision dans la reconnaissance de dialecte et 88 % dans la détection des états émotionnels.

L’impact commercial en serait considérable. Nos études montrent qu’un déploiement égyptien, avec la capacité d’evoAI à reconnaître et à répondre aux dialectes du Caire versus d’Alexandrie, combinée à des modèles de courtoisie culturelle appropriés, réduirait le délai de pénétration du marché typique de 6 mois à seulement 8 semaines. Les coûts d’acquisition de clients pourraient baisser de jusqu’à 45 % à mesure que les recommandations de bouche à oreille augmentent en raison des interactions naturelles et sensibles à la culture.

Les capacités d’adaptation émotionnelle d’evoAI ouvriraient même de nouvelles catégories de services. Par exemple, nous avons hypothésé qu’un service de soutien à la santé mentale alimenté par evoAI pourrait aider à reconnaître les premiers signes de dépression et d’anxiété en fonction de modèles d’expression naturels, permettant une intervention et une escalation précoces vers notre équipe de bien-être et de santé – en veillant toujours à donner la priorité au bien-être des agents.

Cette avance technologique se traduit directement par l’adoption du marché : les régions utilisant les capacités complètes d’evoAI en matière de dialecte et d’émotion affichent des taux d’adoption 3,2 fois plus rapides que les déploiements d’IA standard, et les scores de satisfaction des agents s’améliorent de 78 % à mesure qu’ils se sentent plus confiants pour gérer des interactions culturellement complexes.

En regardant au-delà de 2025, quelle est selon vous la prochaine frontière pour l’IA centrée sur l’humain dans l’expérience client ?

La prochaine frontière est la convergence de l’IA conversationnelle, de l’IA agente et des réseaux de neurones pour orchestrer un niveau de résultats qui n’ont pas été précédemment imaginés. Cela redessinera la façon dont nous faisons des affaires. L’orchestration n’est plus humain-à-machine ; c’est machine-à-machines ou machine-à-milliers de machines simultanément.

Imaginez que vous planifiez un voyage d’affaires : visiter un site Web pour sélectionner une compagnie aérienne, puis réserver un hôtel, organiser un transport, planifier un dîner et planifier le retour. C’est un exemple simple de l’initialisation d’une demande et de laisser des bots intégrés – alimentés par un réseau de neurones – traiter toutes les options disponibles et construire une réponse à choix multiples pour que vous puissiez sélectionner. Dans ce modèle, l’orchestration est neuronale, l’IA agente alimente les bots et la conversation est la réponse.

Je vous remercie pour cette grande entrevue, les lecteurs qui souhaitent en savoir plus devraient visiter Alorica.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.