mozzicone Cosa sono le allucinazioni LLM? Cause, preoccupazione etica e prevenzione - Unite.AI
Seguici sui social

Intelligenza Artificiale

Cosa sono le allucinazioni LLM? Cause, preoccupazioni etiche e prevenzione

mm

Pubblicato il

 on

I modelli di linguaggio di grandi dimensioni (LLM) sono sistemi di intelligenza artificiale in grado di analizzare e generare testo simile a quello umano. Ma hanno un problema – Gli LLM hanno allucinazioni, cioè inventano cose. Le allucinazioni LLM hanno fatto preoccupare i ricercatori per i progressi in questo campo perché se i ricercatori non possono controllare l'esito dei modelli, allora non possono costruire sistemi critici per servire l'umanità. Ne parleremo più avanti.

In generale, gli LLM utilizzano grandi quantità di dati di addestramento e complessi algoritmi di apprendimento per generare risultati realistici. In alcuni casi, viene utilizzato l'apprendimento contestuale addestrare questi modelli utilizzando solo alcuni esempi. Gli LLM stanno diventando sempre più popolari in varie aree applicative che vanno dalla traduzione automatica, all'analisi del sentiment, all'assistenza AI virtuale, all'annotazione di immagini, elaborazione del linguaggio naturale, ecc.

Nonostante la natura all'avanguardia degli LLM, sono ancora soggetti a pregiudizi, errori e allucinazioni. Yann LeCun, attuale Chief AI Scientist presso Meta, ha recentemente menzionato il difetto centrale negli LLM che causa allucinazioni: “I grandi modelli linguistici non hanno idea della realtà sottostante che il linguaggio descrive. Questi sistemi generano un testo che suona bene, grammaticalmente e semanticamente, ma in realtà non hanno alcun tipo di obiettivo se non quello di soddisfare la coerenza statistica con il prompt”.

Allucinazioni negli LLM

Immagine di Gerd Altmann di Pixabay

Le allucinazioni si riferiscono al modello che genera output che sono sintatticamente e semanticamente corretti ma sono disconnessi dalla realtà e basati su falsi presupposti. L'allucinazione è uno dei principali preoccupazioni etiche dei LLMe può avere conseguenze dannose poiché gli utenti senza un'adeguata conoscenza del dominio iniziano a fare eccessivo affidamento su questi modelli linguistici sempre più convincenti.

Un certo grado di allucinazione è inevitabile in tutti i LLM autoregressivi. Ad esempio, un modello può attribuire a una celebrità una citazione contraffatta che non è mai stata pronunciata. Possono affermare qualcosa su un particolare argomento che è di fatto errato o citare fonti inesistenti nei documenti di ricerca, diffondendo così disinformazione.

Tuttavia, far sì che i modelli di intelligenza artificiale abbiano allucinazioni non ha sempre effetti negativi. Ad esempio, A suggerisce un nuovo studio gli scienziati stanno portando alla luce "nuove proteine ​​con una gamma illimitata di proprietà" attraverso LLM allucinanti.

Cosa causa le allucinazioni degli LLM?

Gli LLM possono avere allucinazioni a causa di vari fattori, che vanno dagli errori di overfitting nella codifica e decodifica al bias di addestramento.

sovradattamento

Immagine di janjf93 di Pixabay

L'overfitting è un problema in cui un modello di intelligenza artificiale si adatta troppo bene ai dati di addestramento. Tuttavia, non può rappresentare pienamente l’intera gamma di input che può incontrare, vale a dire non riesce a generalizzare il suo potere predittivo a nuovi dati invisibili. L'overfitting può portare il modello a produrre contenuti allucinati.

Errori di codifica e decodifica

Immagine di Geralt di Pixabay

Se ci sono errori nella codifica e decodifica del testo e delle sue successive rappresentazioni, ciò può anche far sì che il modello generi output privi di senso ed errati.

Bias di formazione

Immagine di Mela cotogna creativa di Pixabay

Un altro fattore è la presenza di alcune distorsioni nei dati di addestramento, che possono indurre il modello a fornire risultati che rappresentano tali distorsioni piuttosto che la natura effettiva dei dati. Ciò è simile alla mancanza di diversità nei dati di addestramento, che limita la capacità del modello di generalizzare a nuovi dati.

La complessa struttura degli LLM rende piuttosto difficile per i ricercatori e i professionisti dell'IA identificare, interpretare e correggere queste cause alla base delle allucinazioni.

Preoccupazioni etiche delle allucinazioni LLM

Gli LLM possono perpetuare e amplificare pregiudizi dannosi attraverso allucinazioni e possono, a loro volta, avere un impatto negativo sugli utenti e avere conseguenze sociali dannose. Alcune di queste preoccupazioni etiche più importanti sono elencate di seguito:

Contenuto discriminatorio e tossico

Immagine di ar130405 di Pixabay

Poiché i dati sulla formazione LLM sono spesso pieni di stereotipi socioculturali a causa dei pregiudizi intrinseci e della mancanza di diversità. Gli LLM possono, quindi, produrre e rafforzare queste idee dannose contro i gruppi svantaggiati della società.

Possono generare questo contenuto discriminante e odioso basato su razza, genere, religione, etnia, ecc.

Problemi di privacy

Immagine di JanBaby di Pixabay

Gli LLM sono formati su un enorme corpus di formazione che spesso include le informazioni personali delle persone. Ci sono stati casi in cui tali modelli hanno violato la privacy delle persone. Possono far trapelare informazioni specifiche come numeri di previdenza sociale, indirizzi di casa, numeri di cellulare e dettagli medici.

Disinformazione e disinformazione

Immagine di Geralt di Pixabay

I modelli linguistici possono produrre contenuti di tipo umano che sembrano accurati ma in realtà sono falsi e non supportati da prove empiriche. Questo può essere accidentale, portando a disinformazione, oppure può avere dietro di sé intenti dannosi per diffondere consapevolmente disinformazione. Se questo non viene controllato, può creare tendenze socio-culturali-economiche-politiche avverse.

Prevenire le allucinazioni LLM

Immagine di atre23 di Pixabay

Ricercatori e professionisti stanno adottando vari approcci per affrontare il problema delle allucinazioni nei LLM. Questi includono il miglioramento della diversità dei dati di addestramento, l'eliminazione dei pregiudizi intrinseci, l'utilizzo di migliori tecniche di regolarizzazione e l'impiego di addestramento contraddittorio e apprendimento per rinforzo, tra gli altri:

  • Lo sviluppo di migliori tecniche di regolarizzazione è al centro della lotta alle allucinazioni. Aiutano a prevenire l'overfitting e altri problemi che causano allucinazioni.
  • L'aumento dei dati può ridurre la frequenza delle allucinazioni, come evidenziato da a studio di ricerca. L'aumento dei dati comporta l'aumento del set di addestramento aggiungendo un token casuale in qualsiasi punto della frase. Raddoppia le dimensioni del training set e provoca una diminuzione della frequenza delle allucinazioni.
  • OpenAI e DeepMind di Google hanno sviluppato una tecnica chiamata apprendimento per rinforzo con feedback umano (RLHF) per affrontare il problema delle allucinazioni di ChatGPT. Coinvolge un valutatore umano che esamina frequentemente le risposte del modello e sceglie le più appropriate per le richieste dell'utente. Questo feedback viene quindi utilizzato per regolare il comportamento del modello. Ilya Sutskever, capo scienziato di OpenAI, ha recentemente affermato che questo approccio può potenzialmente risolvere le allucinazioni in ChatGPT: "Sono abbastanza fiducioso che semplicemente migliorando questo successivo apprendimento di rinforzo dalla fase di feedback umano, possiamo insegnargli a non avere allucinazioni".
  • Identificare i contenuti allucinati da utilizzare come esempio per la formazione futura è anche un metodo utilizzato per affrontare le allucinazioni. UN tecnica innovativa a questo proposito rileva le allucinazioni a livello di token e prevede se ciascun token nell'output è allucinato. Include anche un metodo per l'apprendimento non supervisionato dei rilevatori di allucinazioni.

In parole povere, le allucinazioni LLM sono una preoccupazione crescente. E nonostante gli sforzi, resta ancora molto lavoro da fare per affrontare il problema. La complessità di questi modelli significa che è generalmente difficile identificare e rettificare correttamente le cause intrinseche delle allucinazioni.

Tuttavia, con la continua ricerca e sviluppo, è possibile mitigare le allucinazioni negli LLM e ridurne le conseguenze etiche.

Se vuoi saperne di più sugli LLM e sulle tecniche preventive sviluppate per correggere le allucinazioni degli LLM, dai un'occhiata unire.ai per ampliare le tue conoscenze.