Leader di pensiero
Fermare l’AI dall’inventare storie: Una guida per prevenire le allucinazioni

L’AI sta rivoluzionando il modo in cui quasi ogni industria opera. Sta rendendo noi più efficienti, più produttivi e – quando implementata correttamente – migliori nel nostro lavoro complessivo. Ma mentre la nostra dipendenza da questa tecnologia innovativa aumenta rapidamente, dobbiamo ricordarci di un semplice fatto: l’AI non è infallibile. I suoi output non dovrebbero essere presi alla lettera perché, proprio come gli esseri umani, l’AI può commettere errori.
Chiamiamo questi errori “allucinazioni dell’AI”. Tali errori possono variare da rispondere in modo errato a un problema di matematica a fornire informazioni inaccurate sulle politiche governative. In industrie altamente regolamentate, le allucinazioni possono portare a costose multe e problemi legali, per non parlare dei clienti insoddisfatti.
La frequenza delle allucinazioni dell’AI dovrebbe quindi essere motivo di preoccupazione: si stima che i moderni grandi modelli linguistici (LLM) allucinino tra l’1% e il 30% del tempo. Ciò si traduce in centinaia di risposte false generate ogni giorno, il che significa che le aziende che desiderano sfruttare questa tecnologia devono essere estremamente selettive nella scelta degli strumenti da implementare.
Esaminiamo perché si verificano le allucinazioni dell’AI, cosa è in gioco e come possiamo identificarle e correggerle.
Spazzatura dentro, spazzatura fuori
Ricordi di aver giocato al gioco “telefono” da bambino? Come la frase iniziale veniva distorta mentre passava da un giocatore all’altro, risultando in una dichiarazione completamente diversa una volta che aveva fatto il giro del cerchio?
Il modo in cui l’AI apprende dai suoi input è simile. Le risposte generate dai LLM sono solo buone quanto le informazioni che ricevono, il che significa che un contesto errato può portare alla generazione e diffusione di informazioni false. Se un sistema di AI è costruito su dati inaccurati, fuori data o distorti, allora i suoi output rifletteranno ciò.
Di conseguenza, un LLM è solo buono quanto i suoi input, specialmente quando c’è una mancanza di intervento o supervisione umana. Mentre più soluzioni di AI autonome proliferano, è fondamentale fornire agli strumenti il contesto di dati corretto per evitare di causare allucinazioni. Abbiamo bisogno di un addestramento rigoroso di questi dati e/o della capacità di guidare i LLM in modo che rispondano solo dal contesto che viene fornito, piuttosto che estrarre informazioni da qualsiasi parte di Internet.
Perché le allucinazioni sono importanti?
Per le aziende che si rivolgono ai clienti, l’accuratezza è tutto. Se i dipendenti si affidano all’AI per compiti come la sintesi dei dati dei clienti o la risposta alle query dei clienti, devono fidarsi che le risposte generate da tali strumenti siano accurate.
Altrimenti, le aziende rischiano di danneggiare la loro reputazione e la fedeltà dei clienti. Se i clienti ricevono risposte insufficienti o false da un chatbot, o se sono costretti ad aspettare mentre i dipendenti verificano gli output del chatbot, potrebbero portare la loro attività altrove. Le persone non dovrebbero preoccuparsi del fatto che le aziende con cui interagiscono stanno fornendo loro informazioni false – vogliono un supporto rapido e affidabile, il che significa che ottenere queste interazioni giuste è di importanza fondamentale.
I leader aziendali devono fare la loro dovuta diligenza quando selezionano lo strumento di AI giusto per i loro dipendenti. L’AI dovrebbe liberare tempo e energia per lo staff per concentrarsi su attività di maggior valore; investire in un chatbot che richiede una costante supervisione umana sconfigge lo scopo dell’adozione. Ma l’esistenza di allucinazioni è realmente così prominente o il termine è semplicemente utilizzato eccessivamente per identificare qualsiasi risposta che presumiamo essere errata?
Combattere le allucinazioni dell’AI
Prendere in considerazione: Dynamic Meaning Theory (DMT), il concetto che una comprensione tra due persone – in questo caso l’utente e l’AI – vengono scambiate. Tuttavia, le limitazioni del linguaggio e della conoscenza degli argomenti causano un disallineamento nell’interpretazione della risposta.
Nel caso delle risposte generate dall’AI, è possibile che gli algoritmi sottostanti non siano ancora completamente in grado di interpretare o generare testo in modo da allinearsi con le aspettative che abbiamo come esseri umani. Questa discrepanza può portare a risposte che possono sembrare accurate in superficie ma che alla fine mancano della profondità o della sfumatura necessaria per una vera comprensione.
Inoltre, la maggior parte dei LLM di uso generale estrae informazioni solo da contenuti disponibili pubblicamente su Internet. Le applicazioni aziendali dell’AI funzionano meglio quando sono informate da dati e politiche specifici di singole industrie e aziende. I modelli possono anche essere migliorati con un feedback umano diretto – in particolare soluzioni agentiche progettate per rispondere al tono e alla sintassi.
Tali strumenti dovrebbero anche essere testati rigorosamente prima di diventare accessibili ai consumatori. Ciò è una parte critica della prevenzione delle allucinazioni dell’AI. L’intero flusso dovrebbe essere testato utilizzando conversazioni basate su turni con il LLM che svolge il ruolo di una persona. Ciò consente alle aziende di presumere meglio il successo generale delle conversazioni con un modello di AI prima di rilasciarlo nel mondo.
È essenziale che sia gli sviluppatori che gli utenti della tecnologia di AI rimangano consapevoli della teoria del significato dinamico nelle risposte che ricevono, nonché della dinamica del linguaggio utilizzato nell’input. Ricorda, il contesto è fondamentale. E, come esseri umani, la maggior parte del nostro contesto è compresa attraverso mezzi non verbali, che sia attraverso il linguaggio del corpo, le tendenze sociali – anche il nostro tono. Come esseri umani, abbiamo il potenziale di allucinare in risposta alle domande. Ma, nella nostra attuale iterazione dell’AI, la nostra comprensione uomo-uomo non è così facilmente contestualizzata, quindi dobbiamo essere più critici del contesto che forniamo nella scrittura.
Basta dire – non tutti i modelli di AI sono creati uguali. Mentre la tecnologia si sviluppa per completare compiti sempre più complessi, è cruciale per le aziende che hanno in mente l’implementazione identificare gli strumenti che miglioreranno le interazioni e le esperienze dei clienti piuttosto che detrarre da esse.
L’onere non è solo sui fornitori di soluzioni per assicurarsi di aver fatto tutto il possibile per minimizzare la possibilità che si verifichino allucinazioni. I potenziali acquirenti hanno anche un ruolo da svolgere. Prioritizzando le soluzioni che sono state addestrate e testate rigorosamente e che possono apprendere da dati proprietari (invece di qualsiasi cosa su Internet), le aziende possono ottenere il massimo dai loro investimenti in AI per mettere i dipendenti e i clienti in condizione di successo.












