mozzicone Cos'è l'IA responsabile? Principi, sfide e vantaggi - Unite.AI
Seguici sui social
Corso di perfezionamento sull'intelligenza artificiale:

AI 101

Cos'è l'IA responsabile? Principi, sfide e vantaggi

mm
aggiornato on
Una persona che tiene in mano il globo mentre si trova nei campi.

AI responsabile (RAI) si riferisce alla progettazione e all'implementazione di sistemi di intelligenza artificiale che siano trasparenti, imparziali, responsabili e seguano linee guida etiche. Man mano che i sistemi di intelligenza artificiale diventano più solidi e diffusi, è essenziale garantire che siano sviluppati in modo responsabile e che seguano linee guida etiche e di sicurezza.

Salute, Trasporti, Gestione della rete e Sorveglianza lo sono applicazioni AI critiche per la sicurezza dove il guasto del sistema può avere gravi conseguenze. Le grandi aziende sono consapevoli che la RAI è essenziale per mitigare i rischi tecnologici. Tuttavia, secondo un rapporto MIT Sloan/BCG che comprendeva 1093 intervistati, 54% delle aziende non disponeva di competenze e talenti di Responsible AI.

Sebbene i leader di pensiero e le organizzazioni abbiano sviluppato principi per un'IA responsabile, garantire lo sviluppo responsabile dei sistemi di intelligenza artificiale presenta ancora delle sfide. Esploriamo questa idea in dettaglio:

5 Principi per un'IA responsabile

1. Equità

I tecnologi dovrebbero progettare procedure in modo che i sistemi di intelligenza artificiale trattino tutti gli individui e i gruppi in modo equo senza pregiudizi. Pertanto, l'equità è il requisito principale nelle applicazioni decisionali ad alto rischio.

Equità è definito come:

"Esaminando l'impatto su vari gruppi demografici e scegliendo una delle numerose definizioni matematiche di equità di gruppo che soddisferà adeguatamente l'insieme desiderato di requisiti legali, culturali ed etici".

2. Responsabilità

Responsabilità significa che gli individui e le organizzazioni che sviluppano e implementano sistemi di intelligenza artificiale dovrebbero essere responsabili delle loro decisioni e azioni. Il team che implementa i sistemi di intelligenza artificiale dovrebbe garantire che il proprio sistema di intelligenza artificiale sia trasparente, interpretabile, controllabile e non danneggi la società.

La responsabilità include Sette componenti:

  1. Contesto (scopo per il quale è richiesta la responsabilità)
  2. Gamma (oggetto di responsabilità)
  3. Agente (chi è responsabile?)
  4. Foro (al quale il responsabile deve riferire)
  5. Standard (criteri per la responsabilità)
  6. Processo (metodo di responsabilità)
  7. Implicazioni (conseguenze della responsabilità)

3. Trasparenza

Trasparenza significa che il motivo alla base del processo decisionale nei sistemi di intelligenza artificiale è chiaro e comprensibile. I sistemi di intelligenza artificiale trasparenti sono spiegabili.

Secondo Elenco di valutazione per l'intelligenza artificiale affidabile (ALTAI), la trasparenza ha tre elementi chiave:

  1. Tracciabilità (i dati, le fasi di pre-elaborazione e il modello sono accessibili)
  2. Spiegabilità (il ragionamento alla base del processo decisionale/previsione è chiaro)
  3. Comunicazione aperta (sulla limitazione del sistema di IA)

4. Vita privata

La privacy è uno dei principi fondamentali dell'IA responsabile. Si riferisce alla protezione delle informazioni personali. Questo principio garantisce che le informazioni personali delle persone siano raccolte ed elaborate con il consenso e tenute fuori dalle mani di malcontenti.

Come evidenziato di recente, c'è stato un caso di Clearview, un'azienda che realizza modelli di riconoscimento facciale per le forze dell'ordine e le università. I cani da guardia dei dati del Regno Unito ha fatto causa a Clearview AI per 7.5 milioni di sterline per aver raccolto immagini di residenti nel Regno Unito dai social media senza consenso per creare un database di 20 miliardi di immagini.

5. Sicurezza

Sicurezza significa garantire che i sistemi di intelligenza artificiale siano sicuri e non minaccino la società. Un esempio di una minaccia alla sicurezza dell'IA è attacchi avversari. Questi attacchi dannosi inducono i modelli ML a prendere decisioni sbagliate. Proteggere i sistemi di IA dagli attacchi informatici è fondamentale per un'IA responsabile.

4 principali sfide e rischi dell'IA responsabile

1. bias

I pregiudizi umani legati all'età, al sesso, alla nazionalità e alla razza possono influire sulla raccolta dei dati, portando potenzialmente a modelli di intelligenza artificiale distorti. Studio del Dipartimento del Commercio degli Stati Uniti ha scoperto che il riconoscimento facciale AI identifica erroneamente le persone di colore. Pertanto, l'uso dell'intelligenza artificiale per il riconoscimento facciale nelle forze dell'ordine può portare ad arresti illeciti. Inoltre, realizzare modelli di intelligenza artificiale equi è una sfida perché ce ne sono 21 diversi parametri per definirli. Quindi, c'è un compromesso; soddisfare un giusto parametro AI significa sacrificarne un altro.

2. Interpretabilità

L’interpretabilità è una sfida fondamentale nello sviluppo di un’intelligenza artificiale responsabile. Si riferisce alla comprensione di come il modello di apprendimento automatico ha raggiunto una conclusione particolare.

Le reti neurali profonde mancano di interpretabilità perché operano come scatole nere con più strati di neuroni nascosti, rendendo difficile la comprensione del processo decisionale. Questa può essere una sfida nel processo decisionale ad alto rischio come l'assistenza sanitaria, la finanza, ecc.

Inoltre, la formalizzazione dell'interpretabilità nei modelli ML è impegnativa perché lo è soggettivo ed specifico del dominio.

3. Governo

La governance si riferisce a un insieme di regole, politiche e procedure che sovrintendono allo sviluppo e all'implementazione dei sistemi di intelligenza artificiale. Di recente, ci sono stati progressi significativi nel discorso sulla governance dell'IA, con organizzazioni che presentano quadri e linee guida etiche.

Linee guida etiche per un'IA affidabile da parte dell'UEQuadro etico australiano per l'IAPrincipi AI dell'OCSE sono esempi di quadri di governance dell'IA.

Ma il rapido progresso dell'IA negli ultimi anni può superare questi quadri di governance dell'IA. A tal fine, è necessario un quadro che valuti l'equità, l'interpretazione e l'etica dei sistemi di intelligenza artificiale.

4. Regolamento

Man mano che i sistemi di intelligenza artificiale diventano più diffusi, è necessaria una regolamentazione per considerare i valori etici e sociali. Lo sviluppo di una regolamentazione che non soffochi l'innovazione dell'IA è una sfida fondamentale per un'IA responsabile.

Anche con il regolamento generale sulla protezione dei dati (GDPR), il California Consumer Privacy Act (CCPA) e la legge sulla protezione dei dati personali (PIPL) come organismi di regolamentazione, i ricercatori di intelligenza artificiale hanno scoperto che 97% dei siti web dell'UE non rispettano i requisiti del quadro giuridico del GDPR.

Inoltre, i legislatori devono affrontare a sfida significativa nel raggiungere un consenso sulla definizione di IA che includa sia i classici sistemi di IA che le più recenti applicazioni di IA.

3 principali vantaggi dell'IA responsabile

1. Pregiudizio ridotto

L’intelligenza artificiale responsabile riduce i pregiudizi nei processi decisionali, creando fiducia nei sistemi di intelligenza artificiale. Ridurre le distorsioni nei sistemi di intelligenza artificiale può fornire un sistema sanitario giusto ed equo e ridurre le distorsioni nei sistemi basati sull’intelligenza artificiale servizi finanziari ecc.

2. Maggiore trasparenza

Responsible AI rende trasparenti le applicazioni IA che creano fiducia nei sistemi IA. Sistemi di IA trasparenti diminuire il rischio di errore e uso improprio. Una maggiore trasparenza semplifica l'audit dei sistemi di intelligenza artificiale, conquista la fiducia delle parti interessate e può portare a sistemi di intelligenza artificiale responsabili.

3. Maggiore sicurezza

Le applicazioni IA sicure garantiscono la privacy dei dati, producono output affidabili e innocui e sono al sicuro dagli attacchi informatici.

Ai giganti della tecnologia piace Microsoft ed Google, che sono all'avanguardia nello sviluppo di sistemi di IA, hanno sviluppato principi di IA responsabile. L'IA responsabile garantisce che l'innovazione nell'IA non sia dannosa per gli individui e la società.

I leader di pensiero, i ricercatori, le organizzazioni e le autorità legali dovrebbero rivedere continuamente la letteratura sull'IA responsabile per garantire un futuro sicuro per l'innovazione dell'IA.

Per ulteriori contenuti relativi all'intelligenza artificiale, visitare unire.ai.