Seguici sui social

I ricercatori di intelligenza artificiale propongono di mettere delle ricompense sul pregiudizio dell'IA per rendere l'IA più etica

Etica

I ricercatori di intelligenza artificiale propongono di mettere delle ricompense sul pregiudizio dell'IA per rendere l'IA più etica

mm

Un team di ricercatori di intelligenza artificiale di aziende e laboratori di sviluppo di intelligenza artificiale come Intel, Google Brain e OpenAI ha raccomandato l'uso di ricompense per garantire l'uso etico dell'IA. Il team di ricercatori ha recentemente rilasciato una serie di proposte riguardanti l'uso etico dell'IA e ha incluso un suggerimento secondo cui premiare le persone per aver scoperto pregiudizi nell'IA potrebbe essere un modo efficace per rendere l'IA più equa.

Come riporta VentureBeat, ricercatori di diverse aziende negli Stati Uniti e in Europa si sono uniti per mettere insieme una serie di linee guida etiche per lo sviluppo dell'IA, oltre a suggerimenti su come rispettare le linee guida. Uno dei suggerimenti fatti dai ricercatori è stato quello di offrire ricompense agli sviluppatori che trovano pregiudizi all'interno dei programmi di intelligenza artificiale. Il suggerimento è stato fatto in un documento intitolato “Verso uno sviluppo dell'IA affidabile: meccanismi per supportare le affermazioni verificabili".

Come esempi dei pregiudizi che il team di ricercatori spera di affrontare, dati e algoritmi distorti sono stati trovati in tutto, dalle applicazioni sanitarie ai sistemi di riconoscimento facciale utilizzati dalle forze dell'ordine. Uno di questi casi di parzialità è lo strumento di valutazione del rischio PATTERN che è stato recentemente utilizzato dal Dipartimento di Giustizia degli Stati Uniti per valutare i detenuti e decidere quali potrebbero essere rimandati a casa quando si riducono le dimensioni della popolazione carceraria in risposta alla pandemia di coronavirus.

La pratica di premiare gli sviluppatori per aver trovato comportamenti indesiderati nei programmi per computer lo è un vecchio, ma questa potrebbe essere la prima volta che un comitato etico dell'IA ha seriamente avanzato l'idea come opzione per combattere i pregiudizi dell'IA. Sebbene sia improbabile che ci siano abbastanza sviluppatori di intelligenza artificiale per trovare abbastanza pregiudizi da garantire l'etica dell'IA, aiuterebbe comunque le aziende a ridurre i pregiudizi generali e ad avere un'idea di quali tipi di pregiudizi si stanno diffondendo nei loro sistemi di intelligenza artificiale.

Gli autori dell'articolo hanno spiegato che il concetto di bug-bounty può essere esteso all'IA con l'uso di bias e safety bounty e che l'uso corretto di questa tecnica potrebbe portare a set di dati e modelli meglio documentati. La documentazione rifletterebbe meglio i limiti sia del modello che dei dati. I ricercatori notano anche che la stessa idea potrebbe essere applicata ad altre proprietà dell'intelligenza artificiale come interpretabilità, sicurezza e protezione della privacy.

Man mano che si discute sempre di più sui principi etici dell'IA, molti hanno notato che i principi da soli non sono sufficienti e che devono essere intraprese azioni per mantenere l'IA etica. Gli autori del documento osservano che "i regolamenti e le norme esistenti nell'industria e nel mondo accademico non sono sufficienti per garantire uno sviluppo responsabile dell'IA". Anche il co-fondatore di Google Brain e leader del settore AI Andrew Ng opinato che i principi guida da soli non sono in grado di garantire che l'IA sia utilizzata in modo responsabile ed equo, affermando che molti di essi devono essere più espliciti e avere idee attuabili.

La raccomandazione sulla caccia alla taglia di pregiudizi del gruppo di ricerca combinato è un tentativo di andare oltre i principi etici in un'area di azione etica. Il team di ricerca ha anche formulato una serie di altre raccomandazioni che potrebbero stimolare un'azione etica nel campo dell'IA.

Il team di ricerca ha formulato una serie di altre raccomandazioni che le aziende possono seguire per rendere il loro utilizzo dell'IA più etico. Suggeriscono di creare un database centralizzato di incidenti di intelligenza artificiale e condividerlo con la più ampia comunità di intelligenza artificiale. Allo stesso modo, i ricercatori propongono di stabilire un percorso di controllo e che questi percorsi conservino le informazioni riguardanti la creazione e l'implementazione di applicazioni critiche per la sicurezza nelle piattaforme di intelligenza artificiale.

Per preservare la privacy delle persone, il gruppo di ricerca ha suggerito che dovrebbero essere impiegate tecniche incentrate sulla privacy come le comunicazioni crittografate, l’apprendimento federato e la privacy differenziale. Oltre a ciò, il gruppo di ricerca ha suggerito che le alternative open source dovrebbero essere rese ampiamente disponibili e che i modelli di intelligenza artificiale commerciale dovrebbero essere attentamente esaminati. Infine, il gruppo di ricerca suggerisce di aumentare i finanziamenti governativi in ​​modo che i ricercatori accademici possano verificare le prestazioni dell'hardware dichiarate.

Blogger e programmatore con specialità in machine Learning e Deep Learning temi. Daniel spera di aiutare gli altri a usare il potere dell'intelligenza artificiale per il bene sociale.