Intelligenza Artificiale
Gli studi rilevano che l'intelligenza artificiale emotiva non sempre migliora il servizio clienti

Un team di ricercatori dello Schiller College of Business del Georgia Institute of Technology ha condotto studi sperimentali per verificare se le manifestazioni emotive positive migliorassero il servizio clienti. Il team ha scoperto che l'intelligenza artificiale emotiva è apprezzata solo quando il cliente se lo aspetta, il che significa che potrebbe non valere sempre l'investimento per le aziende.
La ricerca intitolata "Bot con sentimenti: gli agenti di intelligenza artificiale dovrebbero esprimere emozioni positive nel servizio clienti?" è stato pubblicato in Ricerca sui sistemi di informazione.
La nuova intuizione arriva mentre i chatbot AI continuano a prendere il controllo del commercio online, con stime che mostrano che entro il 2025 il 95% delle aziende avrà un chatbot AI.
Han Zhang è Steven A. Denning Professor in Technology & Management.
"Si ritiene comunemente e ripetutamente dimostrato che i dipendenti umani possano esprimere emozioni positive per migliorare le valutazioni del servizio dei clienti", ha affermato Zhang. "I nostri risultati suggeriscono che la probabilità che l'intelligenza artificiale esprima emozioni positive per beneficiare o danneggiare le valutazioni del servizio dipende dal tipo di relazione che i clienti si aspettano dall'agente servito".
Conduzione di tre studi separati
Il team ha condotto tre studi per comprendere meglio l'intelligenza artificiale emotiva nelle transazioni del servizio clienti. Ogni studio ha avuto partecipanti diversi e i chatbot AI hanno utilizzato aggettivi emotivi positivi come eccitato, felice, felice o contento. Hanno anche usato più punti esclamativi.
Nel primo studio che ha coinvolto 155 partecipanti, i ricercatori hanno cercato di comprendere l'impatto delle emozioni positive sulla soddisfazione del cliente. Ai soggetti è stato chiesto di rispondere come se avessero ordinato un articolo da un rivenditore e mancasse; poi hanno incontrato agenti (sia umani che robot) che mostravano emozioni neutre o positive. I risultati hanno rivelato che, se supportati da agenti umani, i clienti hanno risposto in modo più favorevole alla positività emotiva rispetto agli scenari con i soli bot, sollevando implicazioni interessanti per le aziende su come interagire al meglio con i propri clienti virtualmente.
Il secondo studio ha rivelato che le aspettative dei clienti possono influenzare in modo significativo la reazione a un bot basato sulle emozioni. Quando è stato chiesto di valutare il proprio orientamento su una scala, 88 partecipanti che immaginavano di restituire i libri di testo hanno dimostrato preferenze diverse in base al fatto che fossero inclini alla comunità o alle transazioni. I risultati hanno mostrato che quando i clienti hanno proiettato più di una mentalità di scambio, i bot emotivi positivi hanno effettivamente avuto un impatto negativo, evidenziando quanto sia fondamentale per le aziende comprendere l'intenzione dell'utente al fine di fornire metodi di coinvolgimento efficaci.
"Il nostro lavoro consente alle aziende di comprendere le aspettative dei clienti esposti ai servizi forniti dall'IA prima che dotino a casaccio le IA di capacità di espressione delle emozioni", ha affermato Zhang.
Utilizzando 177 studenti universitari, lo studio finale ha esaminato le ragioni per cui i bot con emozioni positive potrebbero non sempre avere gli effetti desiderati. I clienti non si aspettano necessariamente che le macchine mostrino emozioni e a volte possono essere scoraggiati da robot che le esprimono in modo eccessivo.
Tutti i risultati dimostrano che può essere difficile per le aziende utilizzare le emozioni positive nei chatbot poiché non conoscono i pregiudizi e le aspettative di un cliente.
"I nostri risultati suggeriscono che l'effetto positivo dell'espressione di emozioni positive sulle valutazioni del servizio potrebbe non materializzarsi quando la fonte dell'emozione non è umana", ha detto Zhang. "I praticanti dovrebbero essere cauti riguardo alle promesse di dotare gli agenti di intelligenza artificiale di capacità di espressione delle emozioni".












