Leader di pensiero
Se il tuo AI sta hallucinando, non incolpare l’AI

Le “allucinazioni” dell’AI – quelle risposte convincenti ma false – attirano molta attenzione dei media, come nel recente articolo del New York Times, AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse. Le allucinazioni sono un pericolo reale quando si ha a che fare con un chatbot per consumatori. Nel contesto delle applicazioni aziendali dell’AI, è una preoccupazione ancora più seria. Fortunatamente, in quanto leader tecnologico aziendale, ho più controllo su di essa. Posso assicurarmi che l’agente abbia i dati giusti per produrre una risposta significativa.
Perché quel è il vero problema. Nell’ambito aziendale, non c’è scusa per le allucinazioni dell’AI. Smettete di incolpare l’AI. Incolpatevi per non utilizzare l’AI in modo appropriato.
Quando gli strumenti di intelligenza artificiale generativa allucinano, stanno facendo ciò per cui sono stati progettati – fornire la miglior risposta possibile in base ai dati disponibili. Quando inventano risposte, producendo una risposta che non si basa sulla realtà, è perché mancano dei dati rilevanti, non li possono trovare o non capiscono la domanda. Sì, nuovi modelli come o3 e o4-mini di OpenAI allucinano di più, agiscono in modo ancora più “creativo” quando non hanno una buona risposta alla domanda che è stata loro posta. Sì, strumenti più potenti possono allucinare di più – ma possono anche produrre risultati più potenti e preziosi se li si configura per il successo.
Se non vuoi che il tuo AI allucini, non privarlo di dati. Alimenta l’AI con i migliori e più rilevanti dati per il problema che vuoi risolvere, e non sarà tentato di deviare.
Anche allora, quando si lavora con qualsiasi strumento di intelligenza artificiale, ti consiglio di mantenere intatte le tue capacità di pensiero critico. I risultati che gli agenti di intelligenza artificiale forniscono possono essere produttivi e deliziosi, ma il punto non è quello di disconnettere il cervello e lasciare che il software faccia tutto il lavoro di pensiero per te. Continua a fare domande. Quando un agente di intelligenza artificiale ti fornisce una risposta, metti in discussione quella risposta per assicurarti che abbia senso e sia supportata da dati. Se così è, dovrebbe essere un segno incoraggiante che vale la pena chiedere ulteriori domande.
Più fai domande, più otterrai insight.
Perché si verificano le allucinazioni
Non è un mistero. L’AI non sta cercando di mentirti. Ogni modello linguistico di grandi dimensioni (LLM) è essenzialmente una previsione della prossima parola o numero in base alla probabilità.
A un livello alto, ciò che sta accadendo qui è che gli LLM mettono insieme frasi e paragrafi una parola alla volta, prevedendo la prossima parola che dovrebbe verificarsi nella frase in base a miliardi di altri esempi presenti nei dati di allenamento. Gli antenati degli LLM (ad eccezione di Clippy) erano prompt di completamento automatico per messaggi di testo e codice del computer, strumenti di traduzione linguistica automatica e altri sistemi linguistici probabilistici. Con l’aumento della potenza di calcolo e l’allenamento su volumi di dati di scala internet, questi sistemi sono diventati “intelligenti” al punto da poter condurre una conversazione completa via chat, come il mondo ha appreso con l’introduzione di ChatGPT.
I critici dell’AI amano sottolineare che non si tratta della stessa cosa che della vera “intelligenza”, ma solo di software in grado di distillare e rigurgitare l’intelligenza umana che gli è stata fornita. Chiedi di riassumere i dati in un rapporto scritto e imita il modo in cui altri scrittori hanno riassunto dati simili.
Mi sembra un argomento accademico finché i dati sono corretti e l’analisi è utile.
Cosa succede se l’AI non ha i dati? Li riempie. A volte è divertente. A volte è un pasticcio totale.
Quando si costruiscono agenti di intelligenza artificiale, questo è un rischio 10 volte superiore. Gli agenti sono destinati a fornire insight azionabili, ma prendono più decisioni lungo la strada. Eseguono attività multistep, dove il risultato del passaggio 1 informa i passaggi 2, 3, 4, 5, … 10 … 20. Se i risultati del passaggio 1 sono errati, l’errore verrà amplificato, rendendo l’output al passaggio 20 ancora peggiore. Specialmente, poiché gli agenti possono prendere decisioni e saltare passaggi.
Fatte correttamente, gli agenti realizzano di più per l’azienda che li dispiega. Tuttavia, in quanto responsabili del prodotto di intelligenza artificiale, dobbiamo riconoscere il rischio maggiore che accompagna la maggiore ricompensa.
Che è ciò che ha fatto il nostro team. Abbiamo visto il rischio e l’abbiamo affrontato. Non abbiamo semplicemente costruito un robot elegante; ci siamo assicurati che funzioni con i dati giusti. Ecco cosa credo che abbiamo fatto correttamente:
- Costruire l’agente per fare le domande giuste e verificare di avere i dati giusti. Assicurarsi che il processo di input iniziale dei dati dell’agente sia effettivamente più deterministico, meno “creativo”. Si vuole che l’agente dica quando non ha i dati giusti e non proceda al passaggio successivo, invece di inventare i dati.
- Strutturare un playbook per il tuo agente – assicurarsi che non inventi un nuovo piano ogni volta, ma abbia un approccio semistrutturato. La struttura e il contesto sono estremamente importanti nella fase di raccolta e analisi dei dati. Si può lasciare che l’agente si allenti e agisca in modo più “creativo” quando ha i fatti e è pronto a scrivere il riassunto, ma prima si ottengono i fatti giusti.
- Costruire uno strumento di alta qualità per estrarre i dati. Ciò dovrebbe essere più di una semplice chiamata API. Prendere il tempo per scrivere il codice (le persone lo fanno ancora) che produce la quantità e la varietà di dati che saranno raccolti, integrando controlli di qualità nel processo.
- Fare in modo che l’agente mostri il suo lavoro. L’agente dovrebbe citare le sue fonti e collegare all’origine dei dati, in modo che l’utente possa verificarli e approfondirli. Nessun trucco consentito!
- Paraurti: pensare a cosa potrebbe andare storto e costruire protezioni contro gli errori che assolutamente non si possono permettere. Nel nostro caso, significa che quando l’agente incaricato di analizzare un mercato non ha i dati – intendo i nostri dati Similarweb, non una fonte di dati casuale estratta da internet – assicurarsi che non inventi nulla è un paraurto essenziale. È meglio per l’agente non essere in grado di rispondere piuttosto che fornire una risposta falsa o fuorviante.
Abbiamo incorporato questi principi nella nostra recente versione dei tre nuovi agenti, con altri in arrivo. Ad esempio, il nostro agente di preparazione alle riunioni AI per i venditori non chiede solo il nome dell’azienda target, ma anche dettagli sull’obiettivo della riunione e con chi si tiene, preparandolo a fornire una risposta migliore. Non deve indovinare perché utilizza una grande quantità di dati aziendali, dati digitali e profili esecutivi per informare le sue raccomandazioni.
I nostri agenti sono perfetti? No. Nessuno sta creando un’AI perfetta, nemmeno le più grandi aziende del mondo. Ma affrontare il problema è molto meglio che ignorarlo.
Vuoi meno allucinazioni? Dai al tuo AI un bel pezzo di dati di alta qualità.
Se allucina, forse non è l’AI che ha bisogno di essere riparato. Forse è il tuo approccio nell’utilizzare queste nuove capacità potenti senza metterci il tempo e lo sforzo per farle funzionare correttamente.












