IA 101
Che cos’è l’AI Responsabile? Principi, Sfide e Benefici

AI Responsabile (RAI) si riferisce alla progettazione e alla distribuzione di sistemi di intelligenza artificiale che sono trasparenti, imparziali, responsabili e seguono linee guida etiche. Man mano che i sistemi di intelligenza artificiale diventano più robusti e diffusi, è essenziale assicurarsi che siano sviluppati in modo responsabile e seguano linee guida di sicurezza ed etiche.
La salute, i trasporti, la gestione della rete e la sorveglianza sono applicazioni di intelligenza artificiale critiche per la sicurezza in cui il malfunzionamento del sistema può avere conseguenze gravi. Le grandi aziende sono consapevoli che l’AI Responsabile è essenziale per mitigare i rischi tecnologici. Tuttavia, secondo un rapporto di MIT Sloan/BCG che include 1093 rispondenti, il 54% delle aziende mancava di competenze e talenti in materia di AI Responsabile.
Sebbene i leader del pensiero e le organizzazioni abbiano sviluppato principi per l’AI Responsabile, assicurarsi dello sviluppo responsabile dei sistemi di intelligenza artificiale presenta ancora sfide. Esploriamo questo concetto in dettaglio:
5 Principi per l’AI Responsabile
1. Equità
I tecnologi dovrebbero progettare procedure in modo che i sistemi di intelligenza artificiale trattino tutti gli individui e i gruppi in modo equo senza pregiudizi. Pertanto, l’equità è il requisito principale nelle applicazioni di decisione ad alto rischio.
L’equità è definita come:
“Esaminare l’impatto sui vari gruppi demografici e scegliere una delle diverse definizioni matematiche di equità di gruppo che soddisferà adeguatamente l’insieme desiderato di requisiti legali, culturali ed etici.”
2. Responsabilità
La responsabilità significa che gli individui e le organizzazioni che sviluppano e distribuiscono sistemi di intelligenza artificiale dovrebbero essere responsabili delle loro decisioni e azioni. Il team che distribuisce i sistemi di intelligenza artificiale dovrebbe assicurarsi che il loro sistema di intelligenza artificiale sia trasparente, interpretabile, verificabile e non danneggi la società.
La responsabilità include sette componenti:
- Contesto (scopo per il quale è richiesta la responsabilità)
- Portata (oggetto della responsabilità)
- Agenzia (chi è responsabile?)
- Foro (a chi il responsabile deve rendere conto)
- Standard (criteri di responsabilità)
- Processo (metodo di responsabilità)
- Implicazioni (conseguenze della responsabilità)
3. Trasparenza
La trasparenza significa che la ragione alla base della presa di decisioni nei sistemi di intelligenza artificiale è chiara e comprensibile. I sistemi di intelligenza artificiale trasparenti sono spiegabili.
Secondo l’Elenco di valutazione per l’intelligenza artificiale affidabile (ALTAI), la trasparenza ha tre elementi chiave:
- Tracciabilità (i dati, i passaggi di pre-elaborazione e il modello sono accessibili)
- Spiegabilità (la ragione alla base della presa di decisioni/predizione è chiara)
- Comunicazione aperta (riguardo ai limiti del sistema di intelligenza artificiale)
4. Privacità
La privacità è uno dei principi fondamentali dell’AI Responsabile. Si riferisce alla protezione delle informazioni personali. Questo principio assicura che le informazioni personali delle persone siano raccolte e elaborate con il consenso e mantenute al di fuori delle mani di malintenzionati.
Come è stato dimostrato di recente, c’è stato un caso di Clearview, un’azienda che produce modelli di riconoscimento facciale per le forze dell’ordine e le università. I responsabili della protezione dei dati del Regno Unito hanno citato in giudizio Clearview AI per 7,5 milioni di sterline per aver raccolto immagini di residenti del Regno Unito dai social media senza consenso per creare un database di 20 miliardi di immagini.
5. Sicurezza
La sicurezza significa assicurarsi che i sistemi di intelligenza artificiale siano sicuri e non minacciosi per la società. Un esempio di minaccia alla sicurezza dell’AI è l’attacco avversario. Questi attacchi malintenzionati ingannano i modelli di apprendimento automatico per prendere decisioni errate. Proteggere i sistemi di intelligenza artificiale dagli attacchi informatici è fondamentale per l’AI Responsabile.
4 Sfide e Rischi Principali dell’AI Responsabile
1. Pregiudizio
I pregiudizi umani relativi all’età, al genere, alla nazionalità e alla razza possono influenzare la raccolta dei dati, potenzialmente portando a modelli di intelligenza artificiale pregiudizievoli. Uno studio del Dipartimento del Commercio degli Stati Uniti ha scoperto che l’AI di riconoscimento facciale sbaglia a identificare le persone di colore. Pertanto, utilizzare l’AI per il riconoscimento facciale nelle forze dell’ordine può portare ad arresti illegittimi. Inoltre, creare modelli di AI equi è difficile perché ci sono 21 parametri diversi per definirli. Quindi, c’è un compromesso; soddisfare un parametro di AI equo significa sacrificare un altro.
2. Interpretazione
L’interpretazione è una sfida critica nello sviluppo dell’AI Responsabile. Si riferisce alla comprensione di come il modello di apprendimento automatico abbia raggiunto una particolare conclusione.
Le reti neurali profonde mancano di interpretazione perché operano come scatole nere con molti strati di neuroni nascosti, rendendo difficile comprendere il processo decisionale. Ciò può essere una sfida nelle decisioni ad alto rischio come la sanità, la finanza, ecc.
Inoltre, formalizzare l’interpretazione nei modelli di apprendimento automatico è difficile perché è soggettivo e specifico del dominio.
3. Governance
La governance si riferisce a un insieme di regole, politiche e procedure che sovraintendono lo sviluppo e la distribuzione dei sistemi di intelligenza artificiale. Recentemente, c’è stato un notevole progresso nel discorso sulla governance dell’AI, con organizzazioni che presentano framework e linee guida etiche.
Le linee guida per l’AI affidabile dell’UE, il quadro etico dell’AI australiano e i principi dell’OCSE sull’AI sono esempi di framework di governance dell’AI.
Tuttavia, il rapido avanzamento dell’AI negli ultimi anni può superare questi framework di governance dell’AI. A questo proposito, c’è bisogno di un framework che valuti l’equità, l’interpretazione e l’etica dei sistemi di intelligenza artificiale.
4. Regolamentazione
Man mano che i sistemi di intelligenza artificiale diventano più diffusi, c’è bisogno di regolamentazione che consideri i valori etici e sociali. Sviluppare regolamentazioni che non soffochino l’innovazione dell’AI è una sfida critica nell’AI Responsabile.
Anche con il Regolamento generale sulla protezione dei dati (GDPR), la Legge sulla privacy dei consumatori della California (CCPA) e la Legge sulla protezione delle informazioni personali (PIPL) come organi regolatori, i ricercatori dell’AI hanno scoperto che il 97% dei siti web dell’UE non rispetta i requisiti del quadro giuridico del GDPR.
Inoltre, i legislatori affrontano una sfida significativa nel raggiungere un consenso sulla definizione di AI che includa sia i sistemi di intelligenza artificiale classici che le ultime applicazioni di AI.
3 Principali Benefici dell’AI Responsabile
1. Riduzione del Pregiudizio
L’AI Responsabile riduce il pregiudizio nei processi decisionali, costruendo fiducia nei sistemi di intelligenza artificiale. Ridurre il pregiudizio nei sistemi di intelligenza artificiale può fornire un sistema sanitario equo e ridurre il pregiudizio nei servizi finanziari basati sull’AI, ecc.
2. Trasparenza Migliorata
L’AI Responsabile rende trasparenti le applicazioni di intelligenza artificiale che costruiscono fiducia nei sistemi di intelligenza artificiale. I sistemi di intelligenza artificiale trasparenti riducono il rischio di errore e abuso. La trasparenza migliorata rende più facile la verifica dei sistemi di intelligenza artificiale, guadagna la fiducia degli stakeholder e può portare a sistemi di intelligenza artificiale responsabili.
3. Migliore Sicurezza
Le applicazioni di intelligenza artificiale sicure assicurano la privacy dei dati, producono output attendibili e innocui e sono al sicuro da attacchi informatici.
I giganti della tecnologia come Microsoft e Google, che sono all’avanguardia nello sviluppo dei sistemi di intelligenza artificiale, hanno sviluppato principi di AI Responsabile. L’AI Responsabile assicura che l’innovazione nell’AI non sia dannosa per gli individui e la società.
I leader del pensiero, i ricercatori, le organizzazioni e le autorità giuridiche dovrebbero continuamente rivedere la letteratura sull’AI Responsabile per assicurare un futuro sicuro per l’innovazione dell’AI.
Per ulteriore contenuto relativo all’AI, visita unite.ai.












