Connect with us

Quando ‘Chatbot’ è una parola sporca: 3 malintesi che i leader aziendali hanno sull’Intelligenza Artificiale Conversazionale

Leader di pensiero

Quando ‘Chatbot’ è una parola sporca: 3 malintesi che i leader aziendali hanno sull’Intelligenza Artificiale Conversazionale

mm

La proliferazione di LLM come OpenAI’s ChatGPT, Meta’s Llama e Anthropic’s Claude ha portato a un chatbot per ogni occasione. Ci sono chatbot per consigli di carriera, chatbot che ti permettono di parlare con il tuo io futuro, e addirittura un chatbot di pollo che fornisce consigli di cucina. 

Ma questi non sono i chatbot di dieci anni fa – all’epoca, erano limitati a conversazioni rigide e predefinite, spesso basate su un grande diagramma di flusso con scelte multiple o risposte equivalenti. In sostanza, erano solo leggermente più sofisticati dei menu telefonici IVR pre-internet.

I “chatbot” di oggi, d’altra parte, si riferiscono più frequentemente all’Intelligenza Artificiale conversazionale, uno strumento con capacità e casi d’uso molto più ampi. E poiché ci troviamo nel mezzo del ciclo di iper-attività dell’Intelligenza Artificiale generativa, tutti e tre questi termini sono utilizzati in modo intercambiabile. Purtroppo, come conseguenza, ci sono molti malintesi intorno ai rischi, ai casi d’uso e al ROI di investire nell’Intelligenza Artificiale conversazionale tra i leader aziendali, specialmente in settori altamente regolamentati come le finanze. 

Quindi vorrei chiarire alcuni malintesi comuni su “chatbot”, quando in realtà stiamo discutendo di Intelligenza Artificiale conversazionale. 

Mito 1: I clienti odiano i chatbot

I consumatori sono stati chiesti per la maggior parte dell’ultimo decennio se preferiscono agenti umani o chatbot – il che è come chiedere a qualcuno se preferirebbe un massaggio professionale o sedersi in una poltrona per massaggi in un centro commerciale. 

Ma il debutto di ChatGPT nel 2022 (insieme a tutti gli strumenti che ne sono derivati) ha completamente capovolto la nostra percezione delle capacità di un chatbot. Come menzionato sopra, i chatbot più vecchi operavano su script, in modo che qualsiasi deviazione dai loro percorsi prescritti spesso portava a confusione e risposte inefficaci. Incapaci di comprendere il contesto e l’intento dell’utente, le risposte fornite erano spesso generiche e inutili, e avevano una capacità limitata di raccogliere, archiviare e fornire informazioni.

Al contrario, l’Intelligenza Artificiale conversazionale coinvolge le persone in conversazioni naturali che imitano il linguaggio umano, consentendo uno scambio più fluido e intuitivo. Dimostra una notevole flessibilità e adattabilità a risultati inaspettati. È in grado di comprendere il contesto che circonda l’intento dell’utente, rilevare le emozioni e rispondere in modo empatico.

Questo livello più profondo di comprensione consente all’Intelligenza Artificiale di oggi di navigare efficacemente gli utenti lungo percorsi logici verso i loro obiettivi. Ciò include il passaggio rapido dei clienti agli assistenti umani quando necessario. Inoltre, l’Intelligenza Artificiale conversazionale utilizza filtri di informazioni avanzati, meccanismi di recupero e la capacità di conservare dati rilevanti, migliorando notevolmente le loro capacità di risoluzione dei problemi, il che si traduce in una migliore esperienza utente.

Quindi, non è che i clienti odino cecamente i chatbot, ciò che odiano è un cattivo servizio, che le versioni precedenti dei chatbot erano sicuramente colpevoli di fornire. Gli agenti conversazionali di oggi sono così più sofisticati che oltre un quarto dei consumatori non si sentono sicuri nella loro capacità di distinguere tra agenti umani e agenti AI, e alcuni percepiscono gli agenti AI come migliori in compiti selezionati rispetto ai loro omologhi umani. 

Nei test pilota, la mia azienda ha visto gli agenti AI triplicare i tassi di conversione dei lead, il che è un indicatore abbastanza potente che non si tratta del fatto che sia un bot o no – si tratta della qualità del lavoro svolto.

Mito 2: I chatbot sono troppo rischiosi

Nelle discussioni con i leader aziendali sull’Intelligenza Artificiale, spesso sorgono preoccupazioni intorno alle allucinazioni, alla protezione dei dati e al pregiudizio che potrebbero portare a violazioni normative. Sebbene siano rischi legittimi, possono tutti essere mitigati attraverso diversi approcci: fine-tuning, Retrieval-Augmented Generation (RAG) e prompt engineering. 

Sebbene non disponibile su tutti gli LLM, il fine-tuning può specializzare un modello pre-addestrato per un compito o dominio specifico, risultando in un’Intelligenza Artificiale più adatta alle esigenze specifiche. Ad esempio, un’azienda sanitaria potrebbe fine-tuning un modello per comprendere e rispondere meglio alle richieste mediche. 

Il RAG migliora l’accuratezza del chatbot integrando dinamicamente conoscenze esterne. Ciò consente al chatbot di recuperare informazioni aggiornate da database esterni. Ad esempio, un chatbot di servizi finanziari potrebbe utilizzare il RAG per fornire risposte in tempo reale sui prezzi delle azioni. 

Infine, il prompt engineering ottimizza gli LLM creando prompt che guidano il chatbot a produrre risposte più accurate o consapevoli del contesto. Ad esempio, una piattaforma di e-commerce potrebbe utilizzare prompt personalizzati per aiutare il chatbot a fornire raccomandazioni di prodotti personalizzate in base alle preferenze e alla cronologia di ricerca del cliente.

In aggiunta all’utilizzo di uno o più di questi approcci, è anche possibile controllare la “temperatura” creativa dell’Intelligenza Artificiale conversazionale per aiutare a prevenire le allucinazioni. Impostare una temperatura più bassa all’interno delle chiamate API limita l’Intelligenza Artificiale a fornire risposte più deterministiche e coerenti, specialmente quando combinata con una base di conoscenza che assicura che l’Intelligenza Artificiale attinga da set di dati specificati e affidabili. Per mitigare ulteriormente i rischi, evitare di distribuire l’Intelligenza Artificiale in ruoli decisionali in cui il pregiudizio o le informazioni errate potrebbero portare a problemi legali. 

Per quanto riguarda la privacy dei dati, assicurarsi che i fornitori esterni di Intelligenza Artificiale siano conformi alle normative, o distribuire modelli open-source sulla propria infrastruttura per mantenere il controllo completo sui propri dati, essenziale per la conformità al GDPR. 

Infine, è sempre saggio investire in un’assicurazione di responsabilità professionale che possa offrire ulteriore protezione, coprendo le aziende in scenari improbabili come la lite intentata. Attraverso queste misure, le aziende possono utilizzare con fiducia l’Intelligenza Artificiale mantenendo la sicurezza del marchio e del cliente.

Mito 3: I chatbot non sono pronti per compiti complessi 

Dopo aver visto i problemi che le grandi aziende tecnologiche stanno avendo nel distribuire gli strumenti di Intelligenza Artificiale, potrebbe sembrare ingenuo pensare che un’azienda di medie dimensioni avrebbe una vita più facile. Ma l’Intelligenza Artificiale è attualmente a un punto in cui la frase “giocatore di tutti i giochi e maestro di nessuno” non è terribilmente inaccurata. Ciò è dovuto al fatto che questi strumenti sono chiamati a svolgere troppi compiti diversi in ambienti che non sono ancora progettati per un’efficace distribuzione dell’Intelligenza Artificiale. In altre parole, non è che non siano in grado, è che sono chiamati a pattinare su un lago di ghiaccio sottile e fratturato. 

Ad esempio, le organizzazioni con dati silenziati e/o disorganizzati saranno più propense a far sì che l’Intelligenza Artificiale mostri informazioni obsolete, inaccurate o in conflitto. Ironia della sorte, ciò è una conseguenza della loro complessità! Mentre i chatbot più vecchi semplicemente rigurgitavano informazioni di base in modo lineare, l’Intelligenza Artificiale conversazionale può analizzare set di dati robusti, considerando diversi fattori influenti contemporaneamente per tracciare il percorso più appropriato in avanti. 

Di conseguenza, il successo con l’Intelligenza Artificiale conversazionale dipende da parametri rigorosi e confini estremamente chiari riguardo alle fonti di dati e ai compiti. Con i dati di addestramento appropriati e prompt progettati con cura, la funzionalità dell’Intelligenza Artificiale conversazionale può estendersi ben oltre l’ambito di un semplice chatbot. Ad esempio, può raccogliere e filtrare dati dalle conversazioni dei clienti e utilizzarli per aggiornare automaticamente un CRM. Ciò non solo semplifica i compiti amministrativi, ma assicura anche che le informazioni dei clienti siano costantemente accurate e aggiornate. Automatizzando tali compiti, le aziende possono concentrarsi di più su attività strategiche piuttosto che su fardelli amministrativi.

Se continueremo a utilizzare il termine “chatbot”, è imperativo che differenziemmo tra piattaforme che incorporano l’Intelligenza Artificiale conversazionale all’avanguardia e quelle che offrono ancora gli strumenti limitati di ieri. Allo stesso modo in cui oggi la parola “telefono” evoca più spesso l’immagine di uno smartphone a schermo touch che di un telefono a filo con corda a spirale, credo che non siamo lontani dal momento in cui “chatbot” sarà sostituito dall’idea di agenti AI avanzati piuttosto che avatar a scelta multipla goffi.

Sam Oliver è un imprenditore tecnologico, investitore immobiliare e autore. La sua ultima impresa, OpenFi, è un'intelligenza artificiale conversazionale per la generazione di lead e la cura dei clienti.