Interviews
Rana Gujral, PDG de Behavioral Signals - Série d'interviews

Rana Gujral est la PDG de Behavioral Signals, une entreprise qui comble le fossé de communication entre les humains et les machines en introduisant l'intelligence émotionnelle, de la parole, dans les conversations avec l'IA.
Behavioral Signals est une startup relativement jeune lancée en 2016. Pourriez-vous partager l'histoire de la genèse ?
Poussé par la passion de mettre sur le marché les technologies révolutionnaires brevetées de parole en émotion et de parole en comportement de l'entreprise, le directeur technique, Alex Potamianos et le scientifique en chef, Shri Narayanan, ont fondé Behavioral Signals en 2016. Shri est un Andrew J. Viterbi professeur d'ingénierie à la University of Southern California (USC). Il a fondé et dirige actuellement le Laboratoire d'analyse et d'interprétation des signaux (SAIL) à l'USC. Alex est un innovateur réputé dans le domaine du traitement de la parole et du langage naturel, des systèmes de réponse vocale interactive et de l'informatique comportementale. Il possède plus de 20 ans d'expérience en leadership, tant dans le domaine des affaires qu'au niveau entrepreneurial, et son expérience comprend des travaux chez AT&T Labs-Research, Bell Labs et Lucent Technologies.
Dans le but d'améliorer et de changer à jamais le monde des affaires, nous pensons que la technologie est au cœur de ce qui peut être réalisé. Les algorithmes de Behavioral Signals analysent les émotions et les comportements humains, transforment les données en informations utilisables et permettent de prendre de meilleures décisions commerciales et d'augmenter les profits. Jusqu'à présent, l'émotion humaine était considérée comme impossible à quantifier et impossible à mesurer. Grâce à notre moteur d'analyse breveté, nous mesurons et interprétons la partie "comment" des interactions humaines.
Les signaux comportementaux s'appuient sur un type d'informatique affective d'apprentissage automatique (également connu sous le nom d'Emotion AI). Pourriez-vous expliquer ce que c'est ?
L'intelligence artificielle émotionnelle, également appelée Emotion AI ou informatique affective, est utilisée pour développer des machines capables de lire, d'interpréter, de répondre et d'imiter l'affect humain - la façon dont nous, en tant qu'humains, ressentons et exprimons des émotions. Qu'est-ce que cela signifie pour les consommateurs ? Cela signifie que vos appareils, tels que votre smartphone ou vos haut-parleurs intelligents, pourront vous offrir une interaction plus naturelle que jamais, tout en lisant simplement les signaux émotionnels de votre voix.
À mesure que notre dépendance à l'IA augmente, le besoin d'une IA émotionnellement intelligente augmente également. C'est une chose de demander à votre assistant virtuel de vous lire les scores du jeu d'aujourd'hui, mais c'en est une autre de confier vos parents vieillissants aux soins d'un bot piloté par l'IA. Actuellement, l'IA peut être capable de faire des choses incroyables, comme diagnostiquer des conditions médicales et définir des traitements, mais elle a toujours besoin d'intelligence émotionnelle pour communiquer avec les patients de manière plus humaine.
Quels autres types de technologies d'apprentissage automatique sont utilisées ?
En ce qui concerne l'apprentissage automatique, nous utilisons principalement l'apprentissage en profondeur et la PNL dans nos modèles d'analyse de traitement des signaux comportementaux. Pour expliquer cela un peu mieux, nous avons été les pionniers d'un domaine, le traitement comportemental du signal, basé sur plus d'une décennie de recherches primées et brevetées, pour détecter automatiquement les informations encodées dans la voix humaine à partir de l'audio et mesurer la qualité de interaction humaine. Il s'agit d'une discipline émergente qui relie l'ingénierie aux sciences du comportement et vise à quantifier et interpréter l'interaction et la communication humaines grâce à l'utilisation d'innovations en ingénierie et en informatique. L'apprentissage en profondeur est l'outil qui aide à créer de meilleurs modèles prédictifs.
Quel type de données collectez-vous à partir du ton de la voix ?
Notre technologie d'IA d'apprentissage en profondeur analyse quoi et how quelque chose est dit, des deux côtés d'une conversation, mesurant les émotions et les comportements. La gamme d'émotions est assez diversifiée, mais ce qui compte vraiment, c'est l'intelligence globale de cette analyse. Pour vous donner un exemple, considérons une conversation entre un employé de banque et un client ; nous pouvons capturer et mesurer la politesse, le sang-froid (calme vs agité), l'empathie envers le client, les réactions du client et le style de parole général comme lent, rapide, engagé ou désengagé, afin de calculer le score de qualité de la conversation, l'efficacité du résultat, et la performance de l'employé.
Quel type d'analyse de données est effectué pour prédire l'intention ?
La prédiction d'intention est très similaire à ce qui a déjà été mentionné. Nous utilisons des signaux comportementaux dans la voix pour prédire l'intention d'un client d'acheter un produit, de renouveler un abonnement ou si un débiteur paiera sa dette. La prédiction d'intention peut aider les entreprises à augmenter leurs taux de vente et de collecte, à réduire leurs coûts et, en fin de compte, à améliorer la satisfaction client.
Behavioral Signals a remporté 6 fois la médaille d'or du défi INTERSPEECH sur la qualité des interactions humaines et la paralinguistique computationnelle. Quel est ce défi et quelle est l'importance d'une réalisation ?
Interdiscours est la plus grande conférence technique au monde consacrée au traitement de la parole et à ses applications. Elle bénéficie de la plus forte participation dans ce domaine et d'un nombre important de publications scientifiques. Elle met l'accent sur des approches interdisciplinaires qui abordent tous les aspects des sciences et technologies de la parole, des théories fondamentales aux applications avancées. Ses défis sont considérés comme le prix Turing dans les disciplines de la reconnaissance vocale et du traitement du langage naturel. Ce prix est une reconnaissance importante de nos travaux scientifiques et de notre capacité unique à détecter, à partir de données audio, des signaux associés aux comportements et aux traits qui influencent la prise de décision humaine.
À quelle vitesse les signaux comportementaux peuvent-ils s'adapter à différentes langues et quelle est la taille d'un ensemble de données nécessaire ?
Notre technologie est indépendante du langage. Nous écoutons how quelque chose est dit plutôt que ce qui est réellement dit. Nous écoutons les émotions exprimées, qui sont assez universelles dans toutes les langues. Bien sûr, chaque langue a ses propres caractéristiques uniques qui peuvent nécessiter un ajustement de nos algorithmes, mais la différence sur nos modèles d'analyse prédictive est généralement faible.
Pouvez-vous discuter de la dernière solution de Behavioral Signals, la conversation médiée par l'IA ?
AI-Mediated Conversations (AI-MC) est une solution de routage d'appels automatisé qui utilise l'IA émotionnelle et les données vocales pour associer le client à l'employé le mieux adapté pour gérer un appel spécifique. Si nous revenons à l'exemple mentionné ci-dessus, celui de l'employé de banque et du client, notre technologie peut guider la dynamique de la conversation dans le but ultime d'améliorer le résultat, qu'il s'agisse d'une meilleure expérience client, d'une augmentation des recouvrements ou de délais de résolution plus rapides. . Quel que soit l'objectif, il y a toujours un catalyseur qui permettrait aux deux parties d'atteindre le résultat souhaité. Ce facteur contributif est généralement un processus humain simple et naturel : l'affinité ou le rapport développé entre les personnes. Quel que soit le type de communication d'entreprise (visite commerciale, support, recouvrement), il s'agira toujours d'une interaction entre de vrais humains, là où rarement l'affinité est identique entre deux paires de personnes. Nous avons des comportements et des traits spécifiques qui nous aident à nous entendre avec certaines personnes, mieux qu'avec d'autres. Cette correspondance est basée sur les données de profil et nos algorithmes supérieurs développés à partir d'années de recherche et d'expérience en PNL et en traitement du signal comportemental.
Nous avons récemment mis en œuvre la solution AI-MC de Behavioral Signals pour accroître l'efficacité et l'efficience du centre d'appels d'une banque de l'UE. L'étude de cas a été reconnue par Gartner et incluse dans son rapport d'adoption d'Emotion AI. La solution a démontré un retour sur investissement significatif avec une augmentation de 20 % des demandes de restructuration de dette actives. De plus, cette amélioration a été obtenue avec 7.6 % d'appels en moins, entraînant des réductions de coûts supplémentaires. En chiffres absolus, ces résultats correspondaient à une hausse de 300 M$ pour la banque.
Y a-t-il autre chose que vous aimeriez partager sur les signaux comportementaux ?
Bien que nous soyons très fiers de nos réalisations en recherche, nous sommes également reconnaissants des distinctions de l'industrie. À l'automne 2019, notre technologie a été classée parmi les leaders des cas d'utilisation dans la très convoitée Maverick Research de Gartner, qui dresse le profil des technologies de pointe. Plus tôt cette année, nous avons été inclus dans le Hype Cycle de Gartner, où notre technologie a été qualifiée de « transformationnelle ». Le mois dernier, nous avons été répertoriés comme Gartner Cool Vendor 2020.
Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter Behavioral Signals.












