Connect with us

Leader di pensiero

Come l’AI Spiegabile Migliora l’Affidabilità e la Degnità di Fiducia

mm

Mentre l’intelligenza artificiale (AI) si sta democratizzando attraverso le imprese, si sta lentamente integrando nella stoffa della nostra esistenza. Un aspetto importante di questa democratizzazione è che gli utenti finali dovrebbero essere in grado di comprendere appieno il processo e i meccanismi che l’AI utilizza per raggiungere una conclusione o come funziona per fornire i risultati desiderati. Come esseri umani, abbiamo un profondo bisogno di scoprire il “perché” e il “come” di qualsiasi fenomeno, che ha accelerato il nostro progresso tecnologico. Nel contesto dell’AI, questa comprensione è definita come “spiegabilità”.

Perché la spiegabilità è la necessità del momento?

Più spesso di quanto non si pensi, ci avviciniamo all’AI come una “scatola nera”, dove abbiamo solo la consapevolezza degli input e degli output, ma da qualche parte i processi utilizzati ci sono oscuri. A peggiorare il problema è il fatto che gli algoritmi che alimentano le forme più popolari di AI, come i sistemi di previsione basati sul deep learning complesso e l’elaborazione del linguaggio naturale (NLP), sono altamente astratti anche per i loro praticanti più esperti.

Fiducia e trasparenza: Perché gli utenti possano fidarsi delle previsioni dell’AI, essa deve avere un certo livello di spiegabilità intrinseca. Ad esempio, se un medico deve raccomandare un trattamento in base alle previsioni dell’AI, deve essere fiducioso nella previsione. Una banca deve avere la piena fiducia nella decisione di rifiutare o approvare un prestito e essere in grado di giustificarla a tutti gli stakeholder. Un’AI utilizzata per la selezione e l’assunzione deve dimostrare che i meccanismi sottostanti sono equi e imparziali per tutti i gruppi di richiedenti.

Rende l’AI più umana e aumenta l’adozione: Nel rapporto The state of AI in 2020 di McKinsey, apprendiamo che un produttore utilizza modelli estremamente trasparenti per l’accettazione da parte dei lavoratori della fabbrica, che devono fidarsi dei giudizi emessi dall’AI riguardo alla loro sicurezza. Per un’adozione rapida dell’AI, ottenere il consenso degli stakeholder è l’ostacolo principale per scalare da semplici soluzioni puntuali al livello aziendale e ottenere il massimo dal investimento effettuato. Ciò è alleviato in larga misura se le prestazioni sono spiegabili al pubblico più ampio. Da una prospettiva aziendale, la spiegabilità migliora l’esperienza utente complessiva e aumenta la soddisfazione del cliente. Secondo i risultati di un sondaggio dell’IBM Institute for Business Value, il 68% dei dirigenti di alto livello ritiene che i clienti chiederanno maggiore spiegabilità dall’AI nei prossimi tre anni.

Scoprire i pregiudizi e migliorare le prestazioni del modello: Uno sviluppatore deve sapere come migliorare le prestazioni del modello e come esattamente debuggarlo e ottimizzarlo. Un quadro di spiegabilità chiaro è uno degli strumenti più importanti per condurre l’analisi approfondita necessaria.

Ottenere insight più nitidi e completi: È necessaria una visione a 360 gradi per comprendere appieno qualsiasi prescrizione fatta dall’AI. Ad esempio, se l’AI viene utilizzata per prendere una decisione di investimento, si vorrebbe anche sapere la ragione alla base di essa, in modo da poter trasferire questo apprendimento in altre aree e comprendere anche i potenziali svantaggi di prendere quella decisione. Una solida comprensione di come funziona l’AI consentirà anche ai responsabili delle decisioni di scoprire nuovi casi d’uso.

Regolamenti e responsabilità: Diversi regolamenti come il GDPR stanno rendendo obbligatoria la spiegazione, per affrontare le questioni di responsabilità che sorgono da un processo decisionale automatizzato. In sistemi come i veicoli autonomi, se qualcosa va storto portando a perdita di vite e proprietà, è necessaria una conoscenza adeguata della causa radice, che sarà difficile da individuare in un sistema “scatola nera”.

Come può l’AI essere più spiegabile?

I sistemi di intelligenza artificiale spiegabili (XAI) sono sviluppati utilizzando diverse tecniche che si concentrano sia sull’esplicazione del modello nel suo complesso che sulla spiegazione del ragionamento dietro una previsione individuale attraverso l’assistenza di alcuni algoritmi.

La maggior parte delle tecniche di spiegabilità si basa su:

  • La disintegrazione di un modello in componenti individuali)
  • La visualizzazione delle previsioni del modello (ad esempio, se un modello classifica un’auto come di un certo marchio, evidenzia la parte che ha causato la sua identificazione come tale)
  • La ricerca di spiegazioni (utilizzando tecniche di apprendimento automatico per trovare dati rilevanti che spieghino la previsione di un algoritmo di intelligenza artificiale).

In una di queste tecniche, chiamata proxy modeling, si utilizza un modello più semplice e comprensibile, come un albero decisionale, per rappresentare approssimativamente il modello AI più elaborato. Queste spiegazioni semplici danno un’idea generale del modello a livello alto, ma a volte possono sopprimere alcune sfumature.

Un altro approccio è chiamato “interpretazione progettata” Questo approccio pone vincoli nella progettazione e formazione della rete AI in un nuovo modo, che tenta di costruire l’intera rete da parti più piccole e più semplici spiegabili . Ciò comporta un compromesso tra il livello di precisione e la spiegabilità e limita alcuni approcci dalla cassetta degli attrezzi del data scientist. Potrebbe anche essere altamente intensivo in termini di calcolo.

La formazione e il test dell’AI possono anche impiegare tecniche di verifica dei dati agnostiche come il modello locale interpretabile (LIME) e le spiegazioni additive di Shapley (SHAP), e queste dovrebbero essere personalizzate per raggiungere un’elevata precisione attraverso l’uso del punteggio F, della precisione e di altre metriche. E, naturalmente, tutti i risultati dovrebbero essere monitorati e verificati utilizzando una vasta gamma di dati. Utilizzando LIME, ad esempio, le organizzazioni sono in grado di creare modelli temporanei che mimano le previsioni di algoritmi non trasparenti come l’apprendimento automatico. Questi modelli LIME possono quindi creare una vasta gamma di permutazioni in base a un set di dati dato e al suo output corrispondente, che possono quindi essere utilizzati per formare modelli più semplici e interpretabili insieme a liste complete di spiegazioni per ogni decisione e/o previsione. Il framework SHAP, che ha le sue radici nella teoria dei giochi e specificamente nella teoria dei giochi cooperativi, è un modello che combina l’allocazione ottimale del credito con spiegazioni locali utilizzando i valori di Shapley originali della teoria dei giochi e i loro discendenti.

Operazioni Principiate

A un livello più strategico, tuttavia, i framework di affidabilità dell’AI dovrebbero incorporare un ampio set di principi volti a garantire risultati appropriati sia all’inizio del dispiegamento che nel tempo, man mano che i modelli evolvono in presenza di circostanze in evoluzione. Almeno, questi framework dovrebbero includere cose come:

  • Rilevamento dei pregiudizi – tutti i set di dati dovrebbero essere puliti da pregiudizi e attributi discriminatori e quindi dati il giusto peso e la giusta discrezione quando applicati al modello di formazione;
  • Coinvolgimento umano – gli operatori dovrebbero essere in grado di indagare e interpretare gli output degli algoritmi in ogni momento, in particolare quando i modelli vengono utilizzati per l’applicazione della legge e la salvaguardia delle libertà civili;
  • Giustificazione – tutte le previsioni devono essere in grado di resistere allo scrutinio, il che per natura richiede un alto livello di trasparenza per consentire agli osservatori esterni di valutare i processi e i criteri utilizzati per produrre i risultati;
  • Riproducibilità – i modelli di AI affidabili devono essere coerenti nelle loro previsioni e devono esibire alti livelli di stabilità quando si incontrano nuovi dati.

Ma l’XAI non dovrebbe essere visto solo come un mezzo per migliorare la redditività, ma per portare la responsabilità e garantire che le istituzioni possano spiegare e giustificare l’effetto delle loro creazioni sulla società nel suo complesso.

Balakrishna, conosciuto popolarmente come Bali D.R., è il capo di Intelligenza Artificiale e Automazione in Infosys dove guida sia l'automazione interna per Infosys che fornisce servizi di automazione indipendenti sfruttando prodotti per i clienti. Bali lavora per Infosys da più di 25 anni e ha ricoperto ruoli di vendita, gestione dei programmi e consegna in diverse aree geografiche e settori industriali.