Etica
5 Pilastri Fondamentali per Garantire un Intelligenza Artificiale Responsabile

Stiamo assistendo a una crescita travolgente dei sistemi di intelligenza artificiale/machine learning per elaborare oceani di dati generati nella nuova economia digitale. Tuttavia, con questa crescita, c’è la necessità di considerare seriamente le implicazioni etiche e legali dell’intelligenza artificiale.
Mentre affidiamo compiti sempre più sofisticati e importanti ai sistemi di intelligenza artificiale, come ad esempio l’approvazione automatica dei prestiti, dobbiamo essere assolutamente certi che questi sistemi siano responsabili e affidabili. La riduzione dei pregiudizi nell’intelligenza artificiale è diventata un’area di grande focus per molti ricercatori e ha enormi implicazioni etiche, così come la quantità di autonomia che concediamo a questi sistemi.
Il concetto di Intelligenza Artificiale Responsabile è un quadro importante che può aiutare a costruire fiducia nelle distribuzioni di intelligenza artificiale. Ci sono cinque pilastri fondamentali per l’Intelligenza Artificiale Responsabile. Questo articolo esplorerà questi pilastri per aiutarti a costruire sistemi migliori.
1. Riproducibilità
C’è un vecchio detto nel mondo dello sviluppo software che dice: “hey, funziona sulla mia macchina” Nell’ambito dell’apprendimento automatico e dell’intelligenza artificiale, la frase potrebbe essere modificata in: “hey, funziona sul mio set di dati.” Ciò significa che i modelli di apprendimento automatico possono spesso essere una scatola nera. Molti set di dati di training possono avere pregiudizi intrinseci come il pregiudizio di campionamento o il pregiudizio di conferma che riducono l’accuratezza del prodotto finale.
Per aiutare a rendere i sistemi di intelligenza artificiale/machine learning più riproducibili e quindi più precisi e affidabili, il primo passo è standardizzare il pipeline MLOps. Anche i data scientist più intelligenti hanno le loro tecnologie e librerie preferite, il che significa che l’ingegneria delle caratteristiche e i modelli risultanti non sono uniformi da persona a persona. Utilizzando strumenti come MLflow, è possibile standardizzare il pipeline MLOps e ridurre queste differenze.
Un altro modo per aiutare a rendere i sistemi di intelligenza artificiale/machine learning più riproducibili è attraverso l’utilizzo di ciò che vengono chiamati “set di dati dorati”. Questi sono set di dati rappresentativi che essenzialmente agiscono come test e convalida di nuovi modelli prima che vengano rilasciati per la produzione.
2. Trasparenza
Come detto in precedenza, molti modelli di apprendimento automatico, in particolare le reti neurali, sono scatole nere. Per renderle più responsabili, dobbiamo renderle più interpretabili. Per sistemi semplici come gli alberi decisionali, è abbastanza facile capire come e perché il sistema abbia preso una certa decisione, ma, man mano che l’accuratezza e la complessità di un sistema di intelligenza artificiale aumentano, la sua interpretabilità spesso diminuisce.
C’è una nuova area di ricerca chiamata “spiegabilità” che sta cercando di portare trasparenza anche ai sistemi di intelligenza artificiale complessi come le reti neurali e l’apprendimento profondo. Questi utilizzano modelli proxy per copiare le prestazioni di una rete neurale, ma cercano anche di fornire spiegazioni valide di quali caratteristiche sono importanti.
Tutto ciò porta alla correttezza; si vuole sapere perché una certa decisione è stata presa e assicurarsi che questa decisione sia equa. Si vuole anche assicurarsi che caratteristiche inadeguate non vengano prese in considerazione in modo che i pregiudizi non si insinuino nel modello.
3. Responsabilità
Forse l’aspetto più importante dell’Intelligenza Artificiale Responsabile è la responsabilità. C’è molta discussione su questo argomento, anche nel settore governativo, poiché riguarda le politiche che guideranno i risultati dell’intelligenza artificiale. Questo approccio basato sulle politiche determina a quale stadio gli esseri umani dovrebbero essere coinvolti.
La responsabilità richiede monitoraggi e metriche robusti per aiutare i responsabili delle politiche e controllare i sistemi di intelligenza artificiale/machine learning. La responsabilità lega insieme la riproducibilità e la trasparenza, ma richiede una supervisione efficace sotto forma di comitati di etica dell’intelligenza artificiale. Questi comitati possono gestire le decisioni di politica, decidere cosa è importante misurare e condurre recensioni di equità.
4. Sicurezza
La sicurezza dell’intelligenza artificiale si concentra sulla riservatezza e sull’integrità dei dati. Quando i sistemi elaborano i dati, si vuole che siano in un ambiente sicuro. Si vuole che i dati siano crittografati sia quando sono in riposo nel database che quando vengono chiamati nel pipeline, ma le vulnerabilità esistono ancora mentre vengono alimentati in un modello di apprendimento automatico come testo normale. Tecnologie come la crittografia omodica risolvono questo problema consentendo l’addestramento dell’apprendimento automatico in un ambiente crittografato.
Un altro aspetto è la sicurezza del modello stesso. Ad esempio, gli attacchi di inversione del modello consentono agli hacker di apprendere i dati di training utilizzati per costruire il modello. Ci sono anche attacchi di avvelenamento del modello, che inseriscono dati dannosi nel modello durante l’addestramento e danneggiano completamente le sue prestazioni. Testare il modello per attacchi avversari come questi può mantenerlo sicuro e protetto.
5. Privacità
Google e OpenMined sono due organizzazioni che hanno recentemente dato priorità alla privacy dell’intelligenza artificiale, e OpenMined ha ospitato una recente conferenza su questo argomento. Con nuove normative come il GDPR e il CCPA, e potenzialmente altre in arrivo, la privacy giocherà un ruolo centrale nel modo in cui addestriamo i modelli di apprendimento automatico.
Un modo per assicurarsi di gestire i dati dei clienti in modo consapevole della privacy è utilizzare l’apprendimento federato. Questo metodo decentralizzato di apprendimento automatico addestra modelli diversi localmente, quindi aggrega ogni modello in un hub centrale mantenendo i dati al sicuro, protetti e privati. Un altro metodo è introdurre rumore statistico in modo che i valori individuali dei clienti non vengano rivelati. Ciò ti consente di lavorare con l’aggregato in modo che i dati individuali siano intatti e non disponibili all’algoritmo.
Mantenere l’Intelligenza Artificiale Responsabile
Infine, mantenere l’intelligenza artificiale responsabile è compito di ogni organizzazione che progetta sistemi di intelligenza artificiale/machine learning. Perseguendo intenzionalmente tecnologie all’interno di ciascuno di questi cinque aspetti dell’Intelligenza Artificiale Responsabile, puoi non solo trarre vantaggio dal potere dell’intelligenza artificiale, ma farlo in modo affidabile e trasparente che rassicurerà la tua organizzazione, i clienti e i regolatori.












