mozzicone I principi etici di AI sottoposti a meta-analisi, i diritti umani enfatizzati - Unite.AI
Seguici sui social

Etica

I principi etici dell'AI sottoposti a meta-analisi, i diritti umani enfatizzati

mm

Pubblicato il

 on

Nel 2019, l'attenzione sull'etica dell'IA è stata maggiore che mai. Tuttavia gran parte di questa discussione sembrava confusa, senza un approccio codificato. Piuttosto, diverse aziende hanno creato i propri quadri e politiche riguardanti l'etica dell'IA. Avere un consenso sulle questioni etiche dell'IA è importante perché aiuta i responsabili politici a creare e adeguare le politiche e informa anche il lavoro svolto da ricercatori e studiosi. Oltre a ciò, le aziende di intelligenza artificiale devono sapere dove si trovano i limiti etici se sperano di evitare un'implementazione non etica dell'IA. Al fine di creare un quadro migliore delle tendenze nell'etica dell'IA, come riporta VentureBeats, il Berkman Klein Center dell'Università di Harvard eseguito una meta-analisi dei vari principi e quadri etici esistenti per l'IA.

Secondo gli autori dell'analisi, i ricercatori volevano confrontare i principi fianco a fianco per cercare sovrapposizioni e divergenze. Jessica Fjeld, assistente alla direzione della Cyberlaw Clinic della Harvard Law School, ha spiegato che il team di ricerca voleva "scoprire lo slancio nascosto in una conversazione globale frammentata sul futuro dell'IA, ha portato a questo white paper e alla visualizzazione dei dati associata".

Durante l'analisi, il team ha esaminato 36 diversi documenti sui principi dell'IA provenienti da tutto il mondo e provenienti da diversi tipi di organizzazione. I risultati della ricerca hanno rilevato che c'erano otto temi che continuavano ad apparire nei numerosi documenti.

La privacy e la responsabilità erano due dei temi etici più comuni, così come la sicurezza dell'IA. Anche la trasparenza/spiegabilità è stato un obiettivo comunemente citato, con molti tentativi di rendere gli algoritmi più spiegabili nel corso del 2019. L'equità/non discriminazione è stato un altro punto focale etico, che riflette le crescenti preoccupazioni sulla distorsione dei dati. Anche garantire il controllo umano della tecnologia e non cedere il potere decisionale all'intelligenza artificiale è stato ampiamente menzionato. La responsabilità professionale è stato il settimo tema comune trovato dai ricercatori. Infine, i ricercatori hanno trovato continui riferimenti alla promozione dei valori umani nella documentazione sull'etica dell'IA che hanno esaminato.

Il team di ricerca ha fornito analisi qualitative e quantitative di come questi temi si sono manifestati all'interno della documentazione sull'etica dell'IA nel loro documento e in un allegato carta geografica. La mappa mostra dove è stato menzionato ciascuno dei temi.

Il team di ricerca ha notato che gran parte della discussione sull'etica dell'IA ruotava attorno alla preoccupazione per i valori e i diritti umani. Come osserva il documento di ricerca:

"Il 64% dei nostri documenti conteneva un riferimento ai diritti umani e cinque documenti [14%] hanno preso i diritti umani internazionali come quadro per il loro sforzo complessivo".

I riferimenti ai diritti umani e ai valori erano più comuni nei documenti prodotti da gruppi del settore privato e gruppi della società civile. Ciò indica che le aziende del settore privato di intelligenza artificiale non si preoccupano solo dei profitti, ma di produrre intelligenza artificiale in modo etico. Nel frattempo, le agenzie governative sembrano meno preoccupate o consapevoli dell'etica dell'IA in generale, con meno della metà dei documenti relativi all'IA provenienti da agenzie governative che si occupano di etica dell'IA.

I ricercatori hanno anche notato che se i documenti esaminati erano più recenti, era più probabile che affrontassero tutti gli otto temi più importanti invece che solo alcuni. Questo fatto implica che le idee alla base di ciò che costituisce un uso etico dell'IA stanno iniziando a fondersi tra coloro che guidano la discussione sull'etica dell'IA. Infine, i ricercatori affermano che il successo di questi principi nel guidare lo sviluppo dell'IA dipenderà da quanto saranno ben integrati nella comunità di sviluppo dell'IA in generale. I ricercatori affermano nel documento:

“Inoltre, i principi sono un punto di partenza per la governance, non un punto di arrivo. Di per sé, è improbabile che un insieme di principi sia più che gentilmente persuasivo. È probabile che il suo impatto dipenda da come è integrato in un ecosistema di governance più ampio, comprese ad esempio politiche pertinenti (ad esempio piani nazionali di IA), leggi, regolamenti, ma anche pratiche professionali e routine quotidiane.