interviste
Rana Gujral, CEO di Behavioral Signals – Serie di interviste

Rana Gujral è l'amministratore delegato di Behavioral Signals, un'azienda che colma il divario di comunicazione tra uomo e macchina introducendo l'intelligenza emotiva, dalla parola, nelle conversazioni con l'intelligenza artificiale.
Behavioral Signals è una startup relativamente giovane lanciata nel 2016. Potresti condividere la storia della genesi?
Spinto dalla passione di portare sul mercato le rivoluzionarie tecnologie brevettate di sintesi vocale e comportamentale dell'azienda, il CTO, Alex Potamianos e Chief Scientist, Shri Narayanan ha fondato Behavioral Signals nel 2016. Shri è un Andrew J. Viterbi Professore di Ingegneria presso il Università della California meridionale (USC). Ha fondato e attualmente dirige il Laboratorio di Analisi e Interpretazione dei Segnali (SAIL) all'USC. Alex è un innovatore apprezzato nel campo dell'elaborazione vocale e del linguaggio naturale, dei sistemi di risposta vocale interattivi e dell'informatica comportamentale. Ha oltre 20 anni di esperienza di leadership sia nel settore aziendale che imprenditoriale, mentre il suo background include il lavoro presso AT&T Labs-Research, Bell Labs e Lucent Technologies.
Con l'obiettivo di migliorare e cambiare per sempre il mondo degli affari, crediamo che la tecnologia sia al centro di ciò che può essere raggiunto. Gli algoritmi di Behavioral Signals analizzano le emozioni e i comportamenti umani, trasformano i dati in informazioni utilizzabili e portano a prendere decisioni aziendali migliori e ad aumentare i profitti. Fino ad ora, l'emozione umana è stata considerata impossibile da quantificare e impossibile da misurare. Con il nostro motore di analisi brevettato, misuriamo e interpretiamo la parte "come" delle interazioni umane.
I segnali comportamentali si basano su un tipo di calcolo affettivo basato sull'apprendimento automatico (noto anche come Emotion AI). Potresti spiegare di cosa si tratta?
L'intelligenza artificiale emotiva, chiamata anche Emotion AI o affettive computing, viene utilizzata per sviluppare macchine in grado di leggere, interpretare, rispondere e imitare l'affetto umano, il modo in cui noi, come esseri umani, sperimentiamo ed esprimiamo le emozioni. Cosa significa questo per i consumatori? Significa che i tuoi dispositivi, come il tuo smartphone o gli altoparlanti intelligenti, saranno in grado di offrirti un'interazione più naturale che mai, il tutto semplicemente leggendo i segnali emotivi nella tua voce.
Man mano che cresce la nostra dipendenza dall'IA, aumenta anche la necessità di un'IA emotivamente intelligente. Una cosa è chiedere al tuo assistente virtuale di leggerti i punteggi delle partite di oggi, ma è completamente un'altra cosa affidare i tuoi anziani genitori alle cure di un robot guidato dall'intelligenza artificiale. Attualmente, l'intelligenza artificiale potrebbe essere in grado di fare cose incredibili, come diagnosticare condizioni mediche e delineare trattamenti, ma ha ancora bisogno di intelligenza emotiva per comunicare con i pazienti in un modo più umano.
Quali altri tipi di tecnologie di machine learning vengono utilizzate?
Quando si tratta di apprendimento automatico, utilizziamo principalmente il deep learning e la PNL nei nostri modelli di analisi dell'elaborazione dei segnali comportamentali. Per spiegarlo un po' meglio, abbiamo aperto la strada a un campo, l'elaborazione del segnale comportamentale, basato su oltre un decennio di ricerca premiata e brevettata, per rilevare automaticamente le informazioni codificate nella voce umana dall'audio e misurare la qualità di interazione umana. È una disciplina emergente che collega l'ingegneria con le scienze comportamentali e mira a quantificare e interpretare l'interazione umana e la comunicazione attraverso l'uso di innovazioni ingegneristiche e informatiche. Il deep learning è lo strumento che aiuta a creare modelli predittivi migliori.
Che tipo di dati raccogli dal tone of voice?
La nostra tecnologia AI di deep learning analizza cosa e come qualcosa viene detto, su entrambi i lati di una conversazione, misurando emozioni e comportamenti. La gamma di emozioni è piuttosto varia, ma ciò che conta davvero è l'intelligenza aggregata di questa analisi. Per farti un esempio, considera una conversazione tra un impiegato di banca e un cliente; possiamo catturare e misurare la cortesia, la compostezza (calmo vs agitato), l'empatia nei confronti del cliente, le reazioni del cliente e lo stile di conversazione generale come lento, veloce, impegnato o disimpegnato, al fine di calcolare il punteggio di qualità della conversazione, l'efficacia del risultato, e le prestazioni del dipendente.
Che tipo di analisi dei dati viene eseguita per prevedere l'intento?
La previsione dell'intento è molto simile a quanto già menzionato. Utilizziamo segnali comportamentali nella voce per prevedere l'intenzione di un cliente di acquistare un prodotto, rinnovare un abbonamento o se un debitore pagherà il proprio debito. La previsione degli intenti può aiutare le aziende ad aumentare i loro rapporti di vendita e raccolta, ridurre i costi e, in ultima analisi, migliorare la soddisfazione del cliente.
Behavioral Signals è stato 6 volte vincitore d'oro della qualità INTERSPEECH delle interazioni umane e della sfida di paralinguistica computazionale. Cos'è questa sfida e quanto è significativo questo risultato?
Interdiscorso è la più grande conferenza tecnica al mondo incentrata sull'elaborazione e le applicazioni del linguaggio vocale. Vanta la più grande partecipazione in questo settore e un numero significativo di articoli di ricerca. La conferenza enfatizza approcci interdisciplinari che affrontano tutti gli aspetti della scienza e della tecnologia del linguaggio, dalle teorie di base alle applicazioni avanzate. Le sue sfide sono considerate il Premio Turing nelle discipline del riconoscimento vocale e dell'elaborazione del linguaggio naturale. Vincere questo premio è un importante riconoscimento del nostro lavoro scientifico e della nostra capacità unica di rilevare segnali da dati audio associati a comportamenti e tratti che guidano il processo decisionale umano.
Quanto velocemente i segnali comportamentali possono adattarsi a lingue diverse e quanto è grande il set di dati necessario?
La nostra tecnologia è indipendente dal linguaggio. Ascoltiamo come qualcosa viene detto piuttosto che ciò che effettivamente viene detto. Ascoltiamo le emozioni espresse, che sono abbastanza universali in tutte le lingue. Naturalmente, ogni lingua ha le sue caratteristiche uniche che possono richiedere una modifica dei nostri algoritmi, ma la differenza sui nostri modelli analitici predittivi è generalmente piccola.
Puoi parlare dell'ultima soluzione di Behavioral Signals, la conversazione mediata dall'IA?
AI-Mediated Conversations (AI-MC) è una soluzione di instradamento automatico delle chiamate che utilizza l'intelligenza artificiale delle emozioni e i dati vocali per abbinare il cliente al dipendente più adatto a gestire una chiamata specifica. Se torniamo all'esempio sopra citato, dell'impiegato di banca e del cliente, la nostra tecnologia può guidare la dinamica della conversazione con l'obiettivo finale di migliorare il risultato, sia che si tratti di una migliore esperienza del cliente, di maggiori incassi o di tempi di risoluzione più rapidi. . Qualunque sia l'obiettivo, c'è sempre un catalizzatore che consentirebbe a entrambe le parti di raggiungere il risultato desiderato. Quel fattore che contribuisce è di solito un processo umano semplice e naturale: l'affinità o il rapporto sviluppato tra le persone. Indipendentemente dal tipo di comunicazione aziendale (chiamata di vendita, supporto, raccolta), sarà sempre un'interazione tra persone reali, dove raramente l'affinità è identica tra due coppie di persone. Abbiamo comportamenti e tratti specifici che ci aiutano ad andare d'accordo con alcune persone, meglio che con altre. Questa corrispondenza si basa sui dati del profilo e sui nostri algoritmi superiori sviluppati da anni di ricerca ed esperienza nella PNL e nell'elaborazione del segnale comportamentale.
Di recente abbiamo implementato la soluzione AI-MC di Behavioral Signals per aumentare l'efficacia e l'efficienza del call center di una banca dell'UE. Il case-study è stato riconosciuto da Gartner e incluso nel suo Emotion AI Adoption Report. La soluzione ha dimostrato un ROI significativo con un aumento del 20% delle richieste di ristrutturazione del debito attive. Inoltre, questo miglioramento è stato ottenuto con il 7.6% in meno di chiamate, con conseguente ulteriore riduzione dei costi. In numeri assoluti, questi risultati corrispondevano a un rialzo di 300 milioni di dollari per la banca.
C'è qualcos'altro che vorresti condividere sui segnali comportamentali?
Mentre siamo molto orgogliosi dei risultati della nostra ricerca, siamo ugualmente grati per i riconoscimenti del settore. Nell'autunno del 2019, la nostra tecnologia è stata elencata come leader dei casi d'uso nell'ambita Maverick Research di Gartner che descrive le tecnologie all'avanguardia. All'inizio di quest'anno, siamo stati inclusi nell'Hype Cycle di Gartner, in cui la nostra tecnologia è stata classificata come "trasformazionale". Il mese scorso, siamo stati elencati come Gartner Cool Vendor 2020.
Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Segnali comportamentali.












