Leader del pensiero
Se la tua IA ha le allucinazioni, non dare la colpa all'IA

Le “allucinazioni” dell’intelligenza artificiale – quelle risposte convincenti ma false – attirano molta attenzione mediatica, come nel caso del recente articolo del New York Times, L'intelligenza artificiale sta diventando più potente, ma le sue allucinazioni stanno peggiorandoLe allucinazioni sono un rischio reale quando si ha a che fare con un chatbot per consumatori. Nel contesto delle applicazioni aziendali dell'intelligenza artificiale, rappresentano un problema ancora più serio. Fortunatamente, in qualità di responsabile della tecnologia aziendale, ho anche un maggiore controllo sulla questione. Posso assicurarmi che l'agente disponga dei dati corretti per fornire una risposta significativa.
Perché questo è il vero problema. Nel mondo degli affari, non ci sono scuse per Allucinazioni AISmettetela di dare la colpa all'IA. Incolpatevi per non averla usata correttamente.
Quando IA generativa Gli strumenti hanno allucinazioni, stanno facendo ciò per cui sono stati progettati: fornire la migliore risposta possibile in base ai dati disponibili. Quando inventano cose, producendo una risposta che non si basa sulla realtà, è perché mancano i dati rilevanti, non riescono a trovarli o non capiscono la domandaSì, nuovi modelli come o3 e o4-mini di OpenAI stanno allucinando di più, comportandosi in modo ancora più "creativo" quando non hanno una buona risposta alla domanda che viene loro posta. Sì, strumenti più potenti possono allucinare di più, ma possono anche produrre risultati più potenti e preziosi se li prepariamo al successo.
Se non vuoi che la tua IA abbia allucinazioni, non privarla di dati. Forniscile i dati migliori e più pertinenti al problema che vuoi che risolva, e non sarà tentata di perdersi.
Anche in questo caso, quando si lavora con qualsiasi strumento di intelligenza artificiale, consiglio di mantenere intatte le proprie capacità di pensiero critico. I risultati forniti dagli agenti di intelligenza artificiale possono essere produttivi e piacevoli, ma il punto non è staccare la spina al cervello e lasciare che sia il software a pensare per voi. Continuate a fare domande. Quando un agente di intelligenza artificiale vi dà una risposta, mettetela in discussione per assicurarvi che abbia senso e sia supportata dai dati. In tal caso, dovrebbe essere un segnale incoraggiante che vale la pena dedicare del tempo a porre domande di approfondimento.
Più domande ti poni, migliori saranno le intuizioni che otterrai.
Perché si verificano le allucinazioni
Non è un mistero. L'IA non sta cercando di mentirti. Ogni IA basata su modelli linguistici di grandi dimensioni (LLM) essenzialmente prevede la parola o il numero successivo in base alla probabilità.
Ad alto livello, ciò che accade qui è che gli LLM collegano frasi e paragrafi una parola alla volta, prevedendo la parola successiva che dovrebbe comparire nella frase sulla base di miliardi di altri esempi presenti nei dati di addestramento. Gli antenati degli LLM (a parte Clippy) erano prompt di completamento automatico per messaggi di testo e codice informatico, strumenti di traduzione automatica del linguaggio umano e altri sistemi linguistici probabilistici. Con una maggiore potenza di calcolo basata sulla forza bruta, oltre all'addestramento su volumi di dati su scala Internet, questi sistemi sono diventati sufficientemente "intelligenti" da poter sostenere una conversazione completa tramite chat, come il mondo ha imparato con l'introduzione di ChatGPT.
I detrattori dell'IA amano sottolineare che questa non è la stessa cosa della vera "intelligenza", ma solo un software in grado di distillare e rigurgitare l'intelligenza umana che gli è stata immessa. Chiedetegli di riassumere i dati in un rapporto scritto e imiterà il modo in cui altri autori hanno riassunto dati simili.
Mi sembra un argomento accademico, purché i dati siano corretti e l'analisi utile.
Cosa succede se l'IA non ha i dati? Riempie gli spazi vuoti. A volte è divertente. A volte è un disastro totale.
Quando si costruisce Agenti AI, questo è 10 volte più rischioso. Gli agenti dovrebbero fornire informazioni fruibili, ma prendono più decisioni lungo il percorso. Hanno eseguito attività in più fasi, in cui il risultato della fase 1 influenza le fasi 2, 3, 4, 5, ... 10 ... 20. Se i risultati della fase 1 sono errati, l'errore verrà amplificato, peggiorando notevolmente l'output della fase 20. Soprattutto perché gli agenti possono prendere decisioni e saltare fasi.
Se utilizzati correttamente, gli agenti offrono maggiori vantaggi all'azienda che li utilizza. Tuttavia, come product manager dell'IA, dobbiamo riconoscere che il rischio maggiore comporta maggiori vantaggi.
Ed è proprio quello che ha fatto il nostro team. Abbiamo individuato il rischio e lo abbiamo affrontato. Non ci siamo limitati a costruire un robot sofisticato; ci siamo assicurati che funzionasse con i dati giusti. Ecco cosa, secondo me, abbiamo fatto bene:
- Costruisci l'agente in modo che ponga le domande giuste e verifichi che disponga dei dati corretti. Assicurati che il processo iniziale di inserimento dei dati dell'agente sia effettivamente più deterministico, meno "creativo". L'agente deve comunicare quando non ha i dati corretti e non passare alla fase successiva, anziché inventare i dati.
- Struttura un manuale per il tuo agente: assicurati che non inventi un nuovo piano ogni volta, ma che abbia un approccio semi-strutturato. Struttura e contesto sono estremamente importanti nella fase di raccolta e analisi dei dati. Puoi lasciare che l'agente si rilassi e agisca in modo più "creativo" quando ha i fatti ed è pronto a scrivere il riepilogo, ma prima assicurati che i fatti siano corretti.
- Costruisci uno strumento di alta qualità per estrarre i dati. Questo dovrebbe essere più di una semplice chiamata API. Prenditi il tempo necessario per scrivere il codice (c'è ancora chi lo fa) che raccolga la giusta quantità e varietà di dati, integrando controlli di qualità nel processo.
- Fate in modo che l'agente mostri il suo lavoro. L'agente dovrebbe citare le fonti e fornire link a siti in cui l'utente può verificare i dati, partendo dalla fonte originale, e approfondirli. Nessun gioco di prestigio!
- Guardrail: Pensa a cosa potrebbe andare storto e crea protezioni contro gli errori che non puoi assolutamente tollerare. Nel nostro caso, ciò significa che quando l'agente incaricato di analizzare un mercato non dispone dei dati – e con questo intendo i nostri dati di Similarweb, non una fonte di dati casuale estratta dal web – assicurarsi che non si inventi qualcosa è un guardrail essenziale. È meglio che l'agente non sia in grado di rispondere piuttosto che fornire una risposta falsa o fuorviante.
Abbiamo incorporato questi principi nel recente rilascio dei nostri tre nuovi agenti, e altri seguiranno. Ad esempio, il nostro agente di preparazione alle riunioni basato sull'intelligenza artificiale per i venditori non si limita a chiedere il nome dell'azienda target, ma anche dettagli sull'obiettivo dell'incontro e sul con chi si terrà, preparandolo a fornire una risposta migliore. Non deve tirare a indovinare, perché utilizza una vasta gamma di dati aziendali, dati digitali e profili dirigenziali per formulare le sue raccomandazioni.
I nostri agenti sono perfetti? No. Nessuno sta ancora creando un'intelligenza artificiale perfetta, nemmeno le più grandi aziende al mondo. Ma affrontare il problema è molto meglio che ignorarlo.
Vuoi meno allucinazioni? Dai alla tua IA una bella fetta di dati di alta qualità.
Se hai allucinazioni, forse non è l'IA che ha bisogno di essere riparata. Forse è il tuo approccio a sfruttare queste nuove e potenti capacità senza dedicare tempo e impegno per realizzarle al meglio.