mozzicone Cos'è l'intelligenza artificiale spiegabile? - Unite.AI
Seguici sui social
Corso di perfezionamento sull'intelligenza artificiale:

AI 101

Che cos'è l'IA spiegabile?

aggiornato on
Immagine: DeepMind su Unsplash

Man mano che l'intelligenza artificiale (AI) diventa più complessa e ampiamente adottata nella società, uno degli insiemi di processi e metodi più critici è Explainable (AI), a volte indicato come XAI. 

L'intelligenza artificiale spiegabile può essere definita come:

  • Un insieme di processi e metodi che aiutano gli utenti umani a comprendere e ad fidarsi dei risultati degli algoritmi di machine learning. 

Come puoi intuire, questa spiegabilità è incredibilmente importante poiché gli algoritmi di intelligenza artificiale prendono il controllo di molti settori, il che comporta il rischio di pregiudizi, algoritmi difettosi e altri problemi. Raggiungendo la trasparenza con la spiegabilità, il mondo può davvero sfruttare il potere dell'IA. 

L'intelligenza artificiale spiegabile, come suggerisce il nome, aiuta a descrivere un modello di intelligenza artificiale, il suo impatto e i potenziali pregiudizi. Svolge anche un ruolo nel caratterizzare l'accuratezza, l'equità, la trasparenza e i risultati del modello nei processi decisionali basati sull'intelligenza artificiale. 

Le odierne organizzazioni guidate dall'intelligenza artificiale dovrebbero sempre adottare processi di intelligenza artificiale spiegabili per contribuire a creare fiducia nei modelli di intelligenza artificiale in produzione. Explainable AI è anche la chiave per diventare un'azienda responsabile nell'odierno ambiente AI.

Poiché i sistemi di intelligenza artificiale di oggi sono così avanzati, gli esseri umani di solito eseguono un processo di calcolo per ricostruire come l'algoritmo è arrivato al suo risultato. Questo processo diventa una "scatola nera", il che significa che è impossibile da capire. Quando questi modelli inspiegabili vengono sviluppati direttamente dai dati, nessuno può capire cosa sta succedendo al loro interno. 

Comprendendo come funzionano i sistemi di intelligenza artificiale attraverso un'intelligenza artificiale spiegabile, gli sviluppatori possono garantire che il sistema funzioni come dovrebbe. Può anche aiutare a garantire che il modello soddisfi gli standard normativi e offre l'opportunità di contestare o modificare il modello. 

Immagine: Dott. Matt Turek/DARPA

Differenze tra AI e XAI

Alcune differenze fondamentali aiutano a separare l'IA "normale" dall'IA spiegabile, ma soprattutto, XAI implementa tecniche e metodi specifici che aiutano a garantire che ogni decisione nel processo ML sia tracciabile e spiegabile. In confronto, l'IA normale di solito arriva al risultato utilizzando un algoritmo ML, ma è impossibile comprendere appieno come l'algoritmo sia arrivato al risultato. Nel caso dell'IA regolare, è estremamente difficile verificarne l'accuratezza, con conseguente perdita di controllo, responsabilità e verificabilità. 

Vantaggi dell'intelligenza artificiale spiegabile 

Ci sono molti vantaggi per qualsiasi organizzazione che desideri adottare un'intelligenza artificiale spiegabile, come ad esempio: 

  • Risultati più rapidi: Explainable AI consente alle organizzazioni di monitorare e gestire sistematicamente i modelli per ottimizzare i risultati aziendali. È possibile valutare e migliorare continuamente le prestazioni del modello e ottimizzare lo sviluppo del modello.
  • Mitigare i rischi: Adottando processi di intelligenza artificiale spiegabili, ti assicuri che i tuoi modelli di intelligenza artificiale siano spiegabili e trasparenti. Puoi gestire le normative, la conformità, i rischi e altri requisiti riducendo al minimo il sovraccarico dell'ispezione manuale. Tutto ciò aiuta anche a mitigare il rischio di pregiudizi involontari. 
  • Costruisci fiducia: Explainable AI aiuta a creare fiducia nell'IA di produzione. I modelli AI possono essere rapidamente portati in produzione, puoi garantire interpretabilità e spiegabilità e il processo di valutazione del modello può essere semplificato e reso più trasparente. 

Tecniche per Explainable AI

Esistono alcune tecniche XAI che tutte le organizzazioni dovrebbero prendere in considerazione e consistono in tre metodi principali: accuratezza della previsione, tracciabilitàe comprensione delle decisioni

Il primo dei tre metodi, accuratezza della previsione, è essenziale per utilizzare con successo l'IA nelle operazioni quotidiane. È possibile eseguire simulazioni e l'output XAI può essere confrontato con i risultati nel set di dati di addestramento, che aiuta a determinare l'accuratezza della previsione. Una delle tecniche più popolari per raggiungere questo obiettivo è chiamata Local Interpretable Model-Agnostic Explanations (LIME), una tecnica che spiega la previsione dei classificatori da parte dell'algoritmo di apprendimento automatico. 

Il secondo metodo è tracciabilità, che si ottiene limitando il modo in cui possono essere prese le decisioni, nonché stabilendo un ambito più ristretto per le regole e le funzionalità di machine learning. Una delle tecniche di tracciabilità più comuni è DeepLIFT, o Deep Learning Important FeaTures. DeepLIFT confronta l'attivazione di ciascun neurone con il suo neurone di riferimento, dimostrando al contempo un collegamento tracciabile tra ciascun neurone attivato. Mostra anche le dipendenze tra di loro. 

Il terzo e ultimo metodo è comprensione delle decisioni, che è incentrato sull'uomo, a differenza degli altri due metodi. La comprensione delle decisioni comporta l'educazione dell'organizzazione, in particolare il team che lavora con l'IA, per consentire loro di capire come e perché l'IA prende le decisioni. Questo metodo è fondamentale per stabilire la fiducia nel sistema. 

Principi di intelligenza artificiale spiegabili

Per fornire una migliore comprensione di XAI e dei suoi principi, il National Institute of Standards (NIST), che fa parte del Dipartimento del Commercio degli Stati Uniti, fornisce definizioni per quattro principi di IA spiegabile: 

  1. Un sistema di intelligenza artificiale dovrebbe fornire prove, supporto o ragionamento per ogni output. 
  2. Un sistema di intelligenza artificiale dovrebbe fornire spiegazioni che possano essere comprese dai suoi utenti. 
  3. La spiegazione dovrebbe riflettere accuratamente il processo utilizzato dal sistema per arrivare al suo output. 
  4. Il sistema di intelligenza artificiale dovrebbe funzionare solo nelle condizioni per cui è stato progettato e non dovrebbe fornire output quando non ha sufficiente fiducia nel risultato. 

Questi principi possono essere ulteriormente organizzati in: 

  • Significativo: Per raggiungere il principio di significatività, un utente dovrebbe comprendere la spiegazione fornita. Ciò potrebbe anche significare che nel caso di un algoritmo AI utilizzato da diversi tipi di utenti, potrebbero esserci diverse spiegazioni. Ad esempio, nel caso di un'auto a guida autonoma, una spiegazione potrebbe essere sulla falsariga di... "l'intelligenza artificiale ha classificato il sacchetto di plastica sulla strada come un sasso, e quindi ha agito per evitare di colpirlo". Sebbene questo esempio funzionerebbe per il conducente, non sarebbe molto utile per uno sviluppatore di intelligenza artificiale che cerca di correggere il problema. In tal caso, lo sviluppatore deve capire perché si è verificata una classificazione errata. 
  • Precisione della spiegazione: A differenza dell'accuratezza dell'output, l'accuratezza della spiegazione coinvolge l'algoritmo AI che spiega accuratamente come ha raggiunto il suo output. Ad esempio, se un algoritmo di approvazione del prestito spiega una decisione basata sul reddito di una domanda quando in realtà era basata sul luogo di residenza del richiedente, la spiegazione sarebbe imprecisa. 
  • Limiti di conoscenza: I limiti di conoscenza dell'IA possono essere raggiunti in due modi e implica che l'input sia al di fuori delle competenze del sistema. Ad esempio, se un sistema è costruito per classificare le specie di uccelli e gli viene data l'immagine di una mela, dovrebbe essere in grado di spiegare che l'input non è un uccello. Se il sistema riceve un'immagine sfocata, dovrebbe essere in grado di segnalare che non è in grado di identificare l'uccello nell'immagine o, in alternativa, che la sua identificazione ha una confidenza molto bassa. 

Il ruolo dei dati nell'intelligenza artificiale spiegabile

Uno dei componenti più importanti dell'AI spiegabile sono i dati. 

Secondo Google, per quanto riguarda i dati e l'intelligenza artificiale spiegabile, "un sistema di intelligenza artificiale è meglio compreso dai dati di addestramento e dal processo di addestramento sottostanti, nonché dal modello di intelligenza artificiale risultante". Questa comprensione dipende dalla capacità di mappare un modello di intelligenza artificiale addestrato all'esatto set di dati utilizzato per addestrarlo, nonché dalla capacità di esaminare attentamente i dati. 

Per migliorare la spiegabilità di un modello, è importante prestare attenzione ai dati di addestramento. I team dovrebbero determinare l'origine dei dati utilizzati per addestrare un algoritmo, la legalità e l'etica che circonda il suo ottenimento, qualsiasi potenziale pregiudizio nei dati e cosa si può fare per mitigare qualsiasi pregiudizio. 

Un altro aspetto critico di dati e XAI è che i dati irrilevanti per il sistema dovrebbero essere esclusi. Per raggiungere questo obiettivo, i dati irrilevanti non devono essere inclusi nel training set o nei dati di input. 

Google ha raccomandato una serie di pratiche per ottenere interpretabilità e responsabilità: 

  • Pianifica le tue opzioni per perseguire l'interpretabilità
  • Considera l'interpretabilità come una parte fondamentale dell'esperienza dell'utente
  • Progettare il modello in modo che sia interpretabile
  • Scegli le metriche per riflettere l'obiettivo finale e l'attività finale
  • Comprendere il modello addestrato
  • Comunicare spiegazioni agli utenti del modello
  • Esegui molti test per assicurarti che il sistema di intelligenza artificiale funzioni come previsto 

Seguendo queste pratiche consigliate, la tua organizzazione può garantire il raggiungimento di un'intelligenza artificiale spiegabile, che è fondamentale per qualsiasi organizzazione guidata dall'IA nell'ambiente odierno. 

 

Alex McFarland è un giornalista e scrittore specializzato in intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup e pubblicazioni di intelligenza artificiale in tutto il mondo.