Intelligenza Artificiale
Cosa sono le allucinazioni LLM? Cause, preoccupazioni etiche e prevenzione

I modelli di linguaggio di grandi dimensioni (LLM) sono sistemi di intelligenza artificiale in grado di analizzare e generare testo simile a quello umano. Ma hanno un problema – Gli LLM hanno allucinazioni, cioè inventano cose. Le allucinazioni LLM hanno fatto preoccupare i ricercatori per i progressi in questo campo perché se i ricercatori non possono controllare l'esito dei modelli, allora non possono costruire sistemi critici per servire l'umanità . Ne parleremo più avanti.
In generale, gli LLM utilizzano grandi quantità di dati di addestramento e complessi algoritmi di apprendimento per generare risultati realistici. In alcuni casi, viene utilizzato l'apprendimento contestuale addestrare questi modelli utilizzando solo alcuni esempi. Gli LLM stanno diventando sempre più popolari in varie aree applicative che vanno dalla traduzione automatica, all'analisi del sentiment, all'assistenza AI virtuale, all'annotazione di immagini, elaborazione del linguaggio naturale, ecc.
Nonostante la natura all'avanguardia degli LLM, sono ancora soggetti a pregiudizi, errori e allucinazioni. Yann LeCun, attuale Chief AI Scientist presso Meta, ha recentemente menzionato il difetto centrale negli LLM che causa allucinazioni: "I grandi modelli linguistici non hanno idea della realtà sottostante descritta dal linguaggio. Questi sistemi generano testi che suonano bene, grammaticalmente e semanticamente, ma non hanno alcun obiettivo se non quello di soddisfare la coerenza statistica con il prompt".
Allucinazioni negli LLM

Immagine di Gerd Altmann di Pixabay
Le allucinazioni si riferiscono al modello che genera output che sono sintatticamente e semanticamente corretti ma sono disconnessi dalla realtà e basati su falsi presupposti. L'allucinazione è uno dei principali preoccupazioni etiche dei LLMe può avere conseguenze dannose poiché gli utenti senza un'adeguata conoscenza del dominio iniziano a fare eccessivo affidamento su questi modelli linguistici sempre più convincenti.
Un certo grado di allucinazione è inevitabile in tutti i LLM autoregressivi. Ad esempio, un modello può attribuire a una celebrità una citazione contraffatta che non è mai stata pronunciata. Possono affermare qualcosa su un particolare argomento che è di fatto errato o citare fonti inesistenti nei documenti di ricerca, diffondendo così disinformazione.
Tuttavia, far sì che i modelli di intelligenza artificiale abbiano allucinazioni non ha sempre effetti negativi. Ad esempio, A suggerisce un nuovo studio Gli scienziati stanno scoprendo "nuove proteine ​​con una gamma illimitata di proprietà " attraverso LLM allucinanti.
Cosa causa le allucinazioni degli LLM?
Gli LLM possono avere allucinazioni a causa di vari fattori, che vanno dagli errori di overfitting nella codifica e decodifica al bias di addestramento.
sovradattamento

Immagine di janjf93 di Pixabay
L'overfitting è un problema in cui un modello di intelligenza artificiale si adatta troppo bene ai dati di addestramento. Tuttavia, non può rappresentare pienamente l’intera gamma di input che può incontrare, vale a dire non riesce a generalizzare il suo potere predittivo a nuovi dati invisibili. L'overfitting può portare il modello a produrre contenuti allucinati.
Errori di codifica e decodifica

Immagine di Geralt di Pixabay
Se ci sono errori nella codifica e decodifica del testo e delle sue successive rappresentazioni, ciò può anche far sì che il modello generi output privi di senso ed errati.
Bias di formazione

Immagine di Mela cotogna creativa di Pixabay
Un altro fattore è la presenza di determinati bias nei dati di training, che possono far sì che il modello fornisca risultati che riflettono tali bias piuttosto che la natura effettiva dei dati. Questo è simile alla mancanza di diversità nei dati di training, che limita la capacità del modello di generalizzare a nuovi dati.
La complessa struttura degli LLM rende piuttosto difficile per i ricercatori e i professionisti dell'IA identificare, interpretare e correggere queste cause alla base delle allucinazioni.
Preoccupazioni etiche delle allucinazioni LLM
Gli LLM possono perpetuare e amplificare pregiudizi dannosi attraverso allucinazioni e possono, a loro volta, avere un impatto negativo sugli utenti e avere conseguenze sociali dannose. Alcune di queste preoccupazioni etiche più importanti sono elencate di seguito:
Contenuto discriminatorio e tossico

Immagine di ar130405 di Pixabay
Poiché i dati sulla formazione LLM sono spesso pieni di stereotipi socioculturali a causa dei pregiudizi intrinseci e della mancanza di diversità . Gli LLM possono, quindi, produrre e rafforzare queste idee dannose contro i gruppi svantaggiati della società .
Possono generare questo contenuto discriminante e odioso basato su razza, genere, religione, etnia, ecc.
Problemi di privacy

Immagine di JanBaby di Pixabay
Gli LLM sono formati su un enorme corpus di formazione che spesso include le informazioni personali delle persone. Ci sono stati casi in cui tali modelli hanno ha violato la privacy delle persone. Possono far trapelare informazioni specifiche come numeri di previdenza sociale, indirizzi di casa, numeri di cellulare e dettagli medici.
Disinformazione e disinformazione

Immagine di Geralt di Pixabay
I modelli linguistici possono produrre contenuti di tipo umano che sembrano accurati ma in realtà sono falsi e non supportati da prove empiriche. Questo può essere accidentale, portando a disinformazione, oppure può avere dietro di sé intenti dannosi per diffondere consapevolmente disinformazione. Se questo non viene controllato, può creare tendenze socio-culturali-economiche-politiche avverse.
Prevenire le allucinazioni LLM

Immagine di atre23 di Pixabay
Ricercatori e professionisti stanno adottando vari approcci per affrontare il problema delle allucinazioni nei LLM. Questi includono il miglioramento della diversità dei dati di addestramento, l'eliminazione dei pregiudizi intrinseci, l'utilizzo di migliori tecniche di regolarizzazione e l'impiego di addestramento contraddittorio e apprendimento per rinforzo, tra gli altri:
- Lo sviluppo di migliori tecniche di regolarizzazione è al centro della lotta alle allucinazioni. Aiutano a prevenire l'overfitting e altri problemi che causano allucinazioni.
- L'aumento dei dati può ridurre la frequenza delle allucinazioni, come evidenziato da a studio di ricerca. L'aumento dei dati comporta l'aumento del set di addestramento aggiungendo un token casuale in qualsiasi punto della frase. Raddoppia le dimensioni del training set e provoca una diminuzione della frequenza delle allucinazioni.
- OpenAI e DeepMind di Google hanno sviluppato una tecnica chiamata apprendimento per rinforzo con feedback umano (RLHF) per affrontare il problema delle allucinazioni di ChatGPT. Coinvolge un valutatore umano che esamina frequentemente le risposte del modello e sceglie la più appropriata per le richieste dell'utente. Questo feedback viene quindi utilizzato per regolare il comportamento del modello. Ilya Sutskever, responsabile scientifico di OpenAI, ha recentemente affermato che questo approccio può potenzialmente risolvere le allucinazioni in ChatGPT: "Sono molto fiducioso che semplicemente migliorando questo successivo apprendimento di rinforzo dalla fase di feedback umano, possiamo insegnargli a non avere allucinazioni".
- Identificare i contenuti allucinati da utilizzare come esempio per la formazione futura è anche un metodo utilizzato per affrontare le allucinazioni. UN tecnica innovativa a questo proposito rileva le allucinazioni a livello di token e prevede se ciascun token nell'output è allucinato. Include anche un metodo per l'apprendimento non supervisionato dei rilevatori di allucinazioni.
In parole povere, le allucinazioni LLM sono una preoccupazione crescente. E nonostante gli sforzi, c'è ancora molto lavoro da fare per affrontare il problema. La complessità di questi modelli rende generalmente difficile identificare e correggere correttamente le cause intrinseche delle allucinazioni.
Tuttavia, con la continua ricerca e sviluppo, è possibile mitigare le allucinazioni negli LLM e ridurne le conseguenze etiche.
Se vuoi saperne di più sugli LLM e sulle tecniche preventive sviluppate per correggere le allucinazioni degli LLM, dai un'occhiata unire.ai per ampliare le tue conoscenze.