Leader di pensiero
Come l’AI Spiegabile Costruisce Fiducia e Responsabilità

Le aziende si sono già tuffate a capofitto nell’adozione dell’AI, correndo a distribuire chatbot, generatori di contenuti e strumenti di supporto alle decisioni in tutta la loro operatività. Secondo McKinsey, il 78% delle aziende utilizza l’AI in almeno una funzione aziendale.
La frenesia di implementazione è comprensibile — tutti vedono il potenziale valore. Ma in questa corsa, molte organizzazioni trascurano il fatto che tutte le tecnologie basate su reti neurali, compresi tutti gli LLM e i sistemi di AI generativa in uso oggi e per il prossimo futuro, condividono un difetto significativo: sono imprevedibili e in ultima analisi incontrollabili.
Come alcuni hanno imparato, ci possono essere conseguenze reali a causa di questo. In un concessionario Chevrolet che aveva distribuito un chatbot sul suo sito web, un cliente ha convinto il bot alimentato da ChatGPT a vendergli un Chevy Tahoe da 58.195 dollari per soli 1 dollaro. Un altro cliente ha indotto lo stesso chatbot a scrivere uno script Python per equazioni di dinamica dei fluidi complessi, che ha fatto felicemente. Il concessionario ha disabilitato rapidamente i bot dopo che questi incidenti sono diventati virali.
L’anno scorso, Air Canada ha perso in tribunale quando ha sostenuto che il suo chatbot, che aveva fornito a un passeggero informazioni inaccurate su uno sconto per lutto, “è un’entità legale separata responsabile delle proprie azioni”.
Questa imprevedibilità deriva dall’architettura fondamentale degli LLM. Sono così grandi e complessi che è impossibile capire come arrivino a risposte specifiche o prevedere cosa produrranno fino a quando non producono un output. La maggior parte delle organizzazioni risponde a questo problema di affidabilità senza riconoscerlo appieno.
La soluzione di buon senso è controllare i risultati dell’AI a mano, che funziona ma limita drasticamente il potenziale della tecnologia. Quando l’AI è relegata a essere un assistente personale — creando testi, prendendo appunti delle riunioni, riassumendo documenti e aiutando con la codifica — fornisce modesti guadagni di produttività. Non abbastanza per rivoluzionare l’economia.
I veri benefici dell’AI arriveranno quando smetteremo di utilizzarla per assistere i lavori esistenti e invece riorganizzeremo interi processi, sistemi e aziende per utilizzare l’AI senza il coinvolgimento umano in ogni fase. Consideriamo l’elaborazione dei prestiti: se una banca fornisce agli ufficiali dei prestiti un assistente AI per riassumere le domande, potrebbero lavorare dal 20 al 30% più velocemente. Ma distribuire l’AI per gestire l’intero processo decisionale (con le adeguate salvaguardie) potrebbe ridurre i costi del 90% e eliminare quasi tutto il tempo di elaborazione. Questa è la differenza tra miglioramento incrementale e trasformazione.
La strada per l’implementazione affidabile dell’AI
Sfruttare appieno il potenziale dell’AI senza soccombere alla sua imprevedibilità richiede una combinazione sofisticata di approcci tecnici e di pensiero strategico. Mentre diversi metodi attuali offrono soluzioni parziali, ognuno ha limitazioni significative.
Alcune organizzazioni tentano di mitigare i problemi di affidabilità attraverso il sistema di “nudging” — sottilmente dirigendo il comportamento dell’AI nelle direzioni desiderate in modo che risponda in modi specifici a determinati input. I ricercatori di Anthropic hanno dimostrato la fragilità di questo approccio identificando una “caratteristica del Golden Gate Bridge” nella rete neurale di Claude e, amplificandola artificialmente, hanno causato a Claude una crisi di identità. Quando gli è stato chiesto della sua forma fisica, invece di riconoscere di non averne alcuna, Claude ha affermato di essere il Golden Gate Bridge stesso. Questo esperimento ha rivelato come facilmente il funzionamento di base di un modello possa essere alterato e che ogni “nudge” rappresenta un compromesso, potenzialmente migliorando un aspetto delle prestazioni mentre degrada altri.
Un altro approccio è avere l’AI monitorare altri AI. Mentre questo approccio stratificato può cogliere alcuni errori, introduce ulteriore complessità e rimane ancora al di sotto di un’affidabilità globale. Le barriere di sicurezza predefinite sono un intervento più diretto, come bloccare le risposte che contengono determinate parole chiave o modelli, come precursori di ingredienti per armi. Sebbene efficaci contro problemi noti, queste barriere non possono prevedere output problematici nuovi che emergono da questi sistemi complessi.
Un approccio più efficace è costruire processi centrati sull’AI che possano funzionare in modo autonomo, con la supervisione umana strategicamente posizionata per cogliere i problemi di affidabilità prima che causino problemi nel mondo reale. Non vorresti che l’AI approvasse o rifiutasse direttamente le domande di prestito, ma l’AI potrebbe condurre una valutazione iniziale per gli operatori umani da revisionare. Ciò può funzionare, ma si basa sulla vigilanza umana per cogliere gli errori dell’AI e mina i potenziali guadagni di efficienza derivanti dall’uso dell’AI.
Costruire per il futuro
Queste soluzioni parziali puntano verso un approccio più globale. Le organizzazioni che ripensano fondamentalmente come il loro lavoro viene svolto, piuttosto che semplicemente aumentare i processi esistenti con l’assistenza dell’AI, otterranno il maggior vantaggio. Ma l’AI non dovrebbe mai essere l’ultimo passo in un processo o decisione ad alto rischio, quindi qual è il miglior percorso da seguire?
Innanzitutto, l’AI costruisce un processo ripetibile che consegnerà in modo affidabile e trasparente risultati coerenti. In secondo luogo, gli esseri umani esaminano il processo per assicurarsi di capire come funziona e che gli input siano appropriati. Infine, il processo viene eseguito in modo autonomo — senza l’uso dell’AI — con la revisione periodica umana dei risultati.
Consideriamo l’industria assicurativa. L’approccio convenzionale potrebbe aggiungere assistenti AI per aiutare i processori di reclami a lavorare più efficientemente. Un approccio più rivoluzionario utilizzerebbe l’AI per sviluppare nuovi strumenti — come la visione computerizzata che analizza le foto dei danni o modelli di rilevamento delle frodi migliorati che identificano modelli sospetti — e poi combinerebbe questi strumenti in sistemi automatizzati governati da regole chiare e comprensibili. Gli esseri umani progettano e monitorano questi sistemi piuttosto che elaborare singoli reclami.
Questo approccio mantiene la supervisione umana nel punto critico in cui conta di più: la progettazione e la convalida del sistema stesso. Consente guadagni di efficienza esponenziali mentre elimina il rischio che l’imprevedibilità dell’AI porti a esiti dannosi in casi individuali.
Un’AI potrebbe identificare potenziali indicatori della capacità di ripagamento del prestito nei dati delle transazioni, ad esempio. Gli esperti umani possono quindi valutare questi indicatori per la correttezza e costruire modelli espliciti e comprensibili per confermarne il potere predittivo.
Questo approccio all’AI spiegabile creerà una divisione più chiara tra le organizzazioni che utilizzano l’AI in modo superficiale e quelle che trasformano le loro operazioni intorno ad essa. Queste ultime si staccheranno sempre più nei loro settori, in grado di offrire prodotti e servizi a prezzi che i loro concorrenti non possono eguagliare.
A differenza dell’AI “black-box”, i sistemi di AI spiegabile assicurano che gli esseri umani mantengano una supervisione significativa dell’applicazione della tecnologia, creando un futuro in cui l’AI aumenta il potenziale umano piuttosto che semplicemente sostituire il lavoro umano.












