Connect with us

Il Problema del ‘Machine Bullshit’: Perché l’AI Mentisce e Come Fermarlo

Intelligenza artificiale

Il Problema del ‘Machine Bullshit’: Perché l’AI Mentisce e Come Fermarlo

mm

L’intelligenza artificiale ha raggiunto un punto in cui può produrre testi che sembrano naturali, sicuri e convincenti. Ma, dietro il testo rifinito, c’è un problema crescente che i ricercatori ora chiamano “machine bullshit”. Il termine non è inteso per essere provocatorio per se stesso. Deriva dal lavoro del filosofo Harry Frankfurt, che ha definito “bullshit” come discorso fatto senza riguardo per la verità. Nel contesto dell’AI, descrive un modello in cui i sistemi generano dichiarazioni che sembrano plausibili ma non sono basate su fatti. Ciò non è lo stesso che una bugia umana, che implica l’intento di ingannare. Invece, è il risultato di come questi sistemi sono costruiti e addestrati. Sono progettati per produrre un linguaggio fluente, non per curarsi se quel linguaggio è vero.

Perché l’AI Produce ‘Machine Bullshit’

Il problema non è un malfunzionamento raro o un errore isolato. È un risultato diretto di come i grandi modelli linguistici sono fondamentalmente progettati e addestrati. Questi modelli sono addestrati su enormi quantità di testo da internet, libri e altre fonti. Imparano modelli di parole e come sono probabilmente disposte una dopo l’altra. Quando si pone una domanda, il modello prevede la prossima parola, poi la successiva, e così via. Non controlla i fatti in tempo reale. Non ha un senso interno di verità. Se la risposta più statisticamente probabile è sbagliata ma suona giusta, la produrrà comunque. È per questo che l’AI può darti con fiducia una citazione falsa, una statistica inventata o un fatto storico distorto.

I ricercatori hanno trovato che l’apprendimento per rinforzo da feedback umano, un metodo comune utilizzato per rendere le risposte dell’AI più utili e cortesi, può effettivamente peggiorare il problema. Quando i modelli sono regolati per compiacere gli utenti, possono priorizzare il suono accettabile rispetto all’essere precisi. Ciò può portare a ciò che alcuni chiamano “adulazione“, dove l’AI ti dice ciò che pensa che tu voglia sentire. In argomenti politici o sensibili, ciò può significare produrre un linguaggio vago o evasivo – ciò che alcuni studi descrivono come “parole di faina”. In altri casi, l’AI può produrre “retorica vuota”, lunghi passaggi che sembrano pensierosi ma contengono poca sostanza.

Alcuni ricercatori sostengono che chiamare questo comportamento “mentire” è fuorviante, perché mentire richiede intenzione. Una macchina non ha credenze o motivi. Ma l’effetto sull’utente può essere lo stesso come se stesse mentendo. Il danno deriva dalla falsità stessa, non dall’intento dietro di essa. È per questo che il termine “machine bullshit” sta guadagnando popolarità. Cattura l’idea che il sistema è indifferente alla verità, anche se non sta attivamente cercando di ingannare.

Rischi e Implicazioni dell’Output dell’AI Fuorviante

I rischi del machine bullshit non sono solo accademici. Nell’uso quotidiano, può fuorviare le persone che si affidano all’AI per informazioni. Nel giornalismo, può inquinare il processo di fact-checking. Nell’istruzione, può dare agli studenti una falsa fiducia in risposte errate. Nell’impresa, può distorcere la presa di decisioni. Il pericolo è amplificato perché l’output dell’AI spesso viene con un tono di autorità. Le persone sono più propense a fidarsi di una dichiarazione che è ben scritta e priva di esitazione. Questa fiducia può essere mal riposta quando il sistema non ha un meccanismo interno per verificare ciò che dice.

Strategie per Ridurre il Danno e Migliorare l’Affidabilità

Fermare il problema richiede più di solo migliori dati di addestramento. Mentre migliorare la qualità e la diversità dei dati può aiutare, non cambia il fatto che l’obiettivo principale del modello è produrre testo probabile, non testo vero. Un approccio è integrare sistemi di fact-checking che funzionano parallelamente al modello linguistico. Questi sistemi possono verificare le affermazioni contro database attendibili prima che vengano presentate all’utente. Un altro approccio è la generazione aumentata di recupero, dove il modello cerca documenti pertinenti in tempo reale e li utilizza per fondare le sue risposte. Ciò può ridurre le allucinazioni, sebbene non le elimini completamente.

La trasparenza è anche essenziale. Gli utenti dovrebbero essere informati quando un’AI sta facendo un’ipotesi educata piuttosto che affermare un fatto verificato. Ciò può essere fatto attraverso punteggi di confidenza o dichiarazioni chiare. Alcuni ricercatori suggeriscono che l’AI dovrebbe essere addestrata a esprimere incertezza più spesso, piuttosto che dare sempre una risposta definitiva. Ciò renderebbe l’interazione simile a consultare un assistente conoscitivo ma fallibile, piuttosto che un oracolo onnisciente.

C’è anche un ruolo per la regolamentazione e gli standard dell’industria. Se i sistemi AI saranno utilizzati in aree come la sanità, il diritto o la finanza, ci dovrebbero essere requisiti chiari per l’accuratezza e la responsabilità. Gli sviluppatori dovrebbero essere in grado di spiegare come funzionano i loro sistemi, quali dati sono stati utilizzati per l’addestramento e quali passaggi sono stati intrapresi per ridurre le falsità. Audit indipendenti potrebbero aiutare a garantire che tali affermazioni non siano solo marketing.

Allo stesso tempo, gli utenti devono sviluppare uno scetticismo salutare nei confronti dell’output dell’AI. Come abbiamo imparato a mettere in discussione le informazioni che vediamo sui social media, dobbiamo mettere in discussione le informazioni provenienti dall’AI. Ciò non significa rifiutarle tout court, ma trattarle come un punto di partenza piuttosto che una risposta finale. La verifica incrociata con altre fonti dovrebbe diventare un’abitudine. I sistemi educativi possono svolgere un ruolo in questo, insegnando l’alfabetizzazione digitale che include la comprensione di come funziona l’AI e dove può sbagliare.

Il problema del machine bullshit non scomparirà presto. Man mano che l’AI diventa più avanzata, la sua capacità di produrre falsità convincenti crescerà solo. Ma ciò non significa che non possiamo fare nulla. Combinando salvaguardie tecniche, trasparenza, regolamentazione e consapevolezza degli utenti, possiamo ridurre il danno. L’obiettivo non è rendere l’AI perfetta – nessun sistema sarà mai completamente libero da errori – ma renderla più affidabile e meno propensa a fuorviare.

Il Punto Chiave

Il termine “machine bullshit” può sembrare brutale, ma cattura una realtà che non possiamo ignorare. L’AI non è uno specchio neutro della conoscenza umana. È un generatore di linguaggio plasmato da dati, algoritmi e incentivi. Se vogliamo che serva la verità piuttosto che solo la fluidità, dobbiamo progettarla in questo modo. Ciò significa ripensare non solo la tecnologia, ma anche i valori che guidano il suo sviluppo. La sfida è tanto una questione di priorità umane quanto di capacità della macchina. Vogliamo sistemi che sono ottimizzati per suonare umani o sistemi che sono ottimizzati per essere veritieri? Le due cose non sono sempre le stesse. Se scegliamo la prima, rischiamo di costruire strumenti che sono persuasivi ma poco affidabili. Se scegliamo la seconda, potremmo dover accettare che l’AI sia a volte meno liscia, meno sicura e meno divertente. Ma sarà anche più onesta.

Il dottor Tehseen Zia è un professore associato con tenure presso l'Università COMSATS di Islamabad, con un dottorato in Intelligenza Artificiale presso l'Università Tecnica di Vienna, Austria. Specializzato in Intelligenza Artificiale, Apprendimento Automatico, Scienza dei Dati e Visione Artificiale, ha apportato contributi significativi con pubblicazioni su riviste scientifiche reputate. Il dottor Tehseen ha anche guidato vari progetti industriali come principale investigatore e ha lavorato come consulente di Intelligenza Artificiale.