Leader del pensiero
Perché le aziende dovrebbero adottare un approccio basato sui valori per la governance dell'intelligenza artificiale

Nel settembre 2025, per la prima volta, tutti gli Stati membri delle Nazioni Unite si sono riuniti per discutere di governance internazionale dell'IA; molti di loro sono stati nuovamente rappresentati a febbraio all'AI Impact Summit di Delhi. L'evento ha portato all'istituzione di due nuovi organismi incentrati sulla governance dell'IA; ma è stato, nella migliore delle ipotesi, un successo simbolico.
I nuovi meccanismi delle Nazioni Unite sono stati concepiti per garantire il consenso: si allontanano da ambiti controversi come l'uso militare dell'IA e non dispongono di fonti di finanziamento chiare né di poteri esecutivi. Ciò non dovrebbe sorprendere gli osservatori esperti. Le Nazioni Unite odierne non hanno la capacità di agire rapidamente o di garantire il rispetto universale delle proprie decisioni, il che le rende un forum difficile in cui attuare un cambiamento reale.
Ciò rientra in un modello consolidato. Nonostante anni di tentativi sporadici di costruire un consenso sulla regolamentazione dell'IA, non sono stati raggiunti accordi internazionali significativi, creando un vuoto in cui singoli paesi e blocchi sono stati costretti a sviluppare le proprie regole. Eppure, una governance efficace dell'IA è fondamentale se vogliamo che venga adottata su larga scala, che goda della fiducia del pubblico e che venga utilizzata in modi che offrano benefici sociali ed economici duraturi.
Arrangiarsi e riparare
Per le aziende globali che sviluppano e gestiscono sistemi di intelligenza artificiale, questa mancanza di meccanismi di governance comuni e concordati è problematica. Desiderano implementare sistemi di intelligenza artificiale in tutto il mondo, ma non esistono due giurisdizioni che rispettino lo stesso insieme di regole. Sono quindi costrette a creare un quadro di governance generico attorno al loro sistema, per poi ricostruirlo da zero in ogni paese in cui operano, per garantire la conformità alle leggi e ai regolamenti locali. Questo approccio crea un'enorme quantità di lavoro extra, rende le iniziative di intelligenza artificiale più costose e soggette a ritardi e indebolisce la capacità delle aziende globali di realizzare economie di scala e condividere strumenti efficaci con gli utenti di tutto il mondo.
Esiste, tuttavia, un'alternativa. Per le aziende che desiderano semplificare il proprio approccio, l'opzione migliore potrebbe essere quella di creare un framework di governance dell'IA che tenga conto di principi etici comuni in queste diverse regioni, garantendo il rispetto di elevati standard ovunque in termini di protezione della libertà, della privacy e della sicurezza degli individui. Questa tecnica rappresenta un modo efficace per le aziende di IA di aumentare la fiducia del pubblico nella loro tecnologia, rafforzare la propria base di clienti e sfruttare i potenziali benefici dell'IA per la società.
Sei valori chiave per la governance dell'IA
Per qualsiasi organizzazione interessata ad adottare un approccio basato sui valori per la governance dell'IA, suggerirei di utilizzare i sei valori chiave che seguiamo: responsabilità, spiegabilità, trasparenza, equità, sicurezza e contestabilità.
Abbiamo scelto questi valori perché coprono tutte le aree principali del ciclo di vita del sistema di intelligenza artificiale e perché sono già stati codificati in vari standard internazionali e nazionali relativi all'intelligenza artificiale, come quello dell'Organizzazione internazionale per la standardizzazione. ISO / IEC 42001 e Manuale di intelligenza artificiale per il governo del Regno Unito.
Per cominciare dall'alto, la responsabilità significa sapere chi è responsabile di cosa in ogni fase del ciclo di vita dell'IA. Senza una chiara titolarità, i controlli vitali possono essere omessi perché nessun individuo o team detiene la responsabilità ultima. Le organizzazioni dovrebbero assegnare responsabili senior e nominati, come il Chief AI Officer, ai sistemi di IA e alle fasi chiave e utilizzare un modello di governance basato sul rischio, applicando agli strumenti di terze parti lo stesso controllo che si applica a quelli sviluppati internamente. Ciò significa comprendere i termini, le limitazioni e le responsabilità dei fornitori con la stessa attenzione con cui si comprendono i propri sistemi.
L’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) lo coglie bene in le sue linee guida per promuovere la responsabilità nell'intelligenza artificiale, che raccomanda alle organizzazioni di creare “meccanismi per integrare il processo di gestione del rischio dell’IA in una governance organizzativa più ampia, promuovendo una cultura di gestione del rischio sia all’interno delle organizzazioni che lungo l’intera catena del valore dell’IA”.
Il passo successivo è la spiegabilità. Le organizzazioni dovrebbero essere in grado di dimostrare come Un sistema di intelligenza artificiale raggiunge una decisione. Ciò richiede meccanismi per documentare e tracciare il processo decisionale, insieme a registrazioni chiare della progettazione del sistema, dei dati di addestramento e dei processi decisionali. Nel complesso, ciò consente ai team di comprendere la provenienza delle informazioni dall'ideazione di un sistema fino alla sua implementazione.
L'equità si concentra sulla garanzia che i sistemi di intelligenza artificiale producano risultati equi e non replichino o amplifichino i pregiudizi esistenti. Senza controlli deliberati, i sistemi possono causare danni fornendo risultati distorti, un problema particolare in settori ad alto impatto come il reclutamento, l'assistenza sanitaria e la giustizia penale. Per mitigare questo problema, le organizzazioni dovrebbero implementare misure di rilevamento dei pregiudizi, rivedere regolarmente i risultati tra i gruppi interessati e progettare quadri di governance in grado di soddisfare i requisiti locali di non discriminazione. In pratica, ciò significa costruire sistemi che soddisfino i più elevati standard legali che potrebbero incontrare, inclusi gli obblighi previsti da leggi come l'Equality Act del 2010 del Regno Unito e la Carta dei diritti fondamentali dell'UE.
La trasparenza consiste nel fornire chiarezza sia agli utenti che alle autorità di regolamentazione. Le persone dovrebbero capire quando viene utilizzata l'IA, quale ruolo svolge nel processo decisionale e quali dati la supportano. Un punto di partenza pratico è standardizzare la documentazione tra i sistemi di IA, supportata da strumenti interni come le schede modello: brevi documenti forniti con modelli di apprendimento automatico che spiegano il contesto in cui i modelli sono destinati a essere utilizzati, i dettagli delle procedure di valutazione delle prestazioni e altre informazioni rilevanti. Senza trasparenza, gli utenti non possono contestare risultati iniqui, le autorità di regolamentazione non possono intervenire in modo efficace e gli impatti dannosi potrebbero essere nascosti sotto il tappeto.
La sicurezza implica la protezione dei sistemi di intelligenza artificiale da accessi non autorizzati, manipolazioni o comportamenti indesiderati. Se la sicurezza è debole, l'intelligenza artificiale può mettere a rischio le organizzazioni, gli utenti e i loro dati, esponendoli a danni finanziari e reputazionali. Le organizzazioni dovrebbero definire soglie di prestazioni e accuratezza, sottoporre i sistemi a stress test in condizioni realistiche e integrare test di red-team per identificare le vulnerabilità.
Infine, la contestabilità garantisce che le persone abbiano un modo chiaro e accessibile per contestare o presentare ricorso contro le decisioni basate sull'intelligenza artificiale. Senza di essa, gli utenti interessati non hanno alcun ricorso e i problemi potrebbero non essere mai individuati o risolti. Le organizzazioni dovrebbero fornire canali di segnalazione nel punto di utilizzo, assegnare responsabili senior alla gestione dei reclami e garantire che i sistemi possano essere sospesi, revisionati o aggiornati ove necessario.
Quali sono i vantaggi di un quadro basato sui valori?
Ci sono due valide ragioni per adottare questo approccio alla governance dell'IA basato sui valori. In primo luogo, perché coloro che sviluppano e implementano sistemi di IA hanno una responsabilità etica nei confronti delle persone e delle organizzazioni che ne sono coinvolte; e, in secondo luogo, perché questo è un modo più efficace per realizzare concretamente i benefici promessi dall'IA.
Gli utenti dei sistemi di intelligenza artificiale, sia aziendali che individuali, ripongono una fiducia implicita nei loro creatori, che non abusano dei dati personali né li espongono a rischi inutili. Quando le organizzazioni tradiscono questa fiducia, diventa molto difficile per loro fidelizzare gli utenti. In definitiva, se le persone non si fidano dei sistemi di intelligenza artificiale e non ne vedono chiaramente i benefici, non ne accetteranno l'introduzione. Ciò causerà una maggiore divisione sociale ed economica e ci farà perdere molte delle opportunità offerte da questa tecnologia.
D'altro canto, le aziende che applicano un framework basato sui valori ovunque, anche in regioni con requisiti di governance più flessibili, possono dimostrare a clienti, investitori e autorità di regolamentazione di attenersi a standard più elevati rispetto ai requisiti di conformità di base. Questo crea fiducia, coinvolgimento e, in ultima analisi, successo aziendale.
Una solida governance dell'IA crea valore, non è un onere di conformità. Consente alle aziende di lanciare nuovi prodotti sul mercato più rapidamente, ridurre l'esposizione al rischio e scalare le proprie soluzioni su più mercati con sicurezza.
McKinsey'Lo stato dell'IA rapporto trovato che "la supervisione da parte di un CEO della governance dell'IA... è uno degli elementi maggiormente correlati con un maggiore impatto sui profitti auto-dichiarato derivante dall'uso dell'IA di generazione da parte di un'organizzazione", sottolineando i vantaggi commerciali di un simile approccio. In tal senso, integrare solidi quadri etici nei sistemi di intelligenza artificiale rappresenta un interesse personale illuminato.
Al di là di tutto questo, però, è semplicemente la cosa giusta da fare. Abbiamo costruito la nostra politica etica globale sull'intelligenza artificiale attorno allo stesso principio: che le tecnologie avanzate devono essere al servizio delle persone e della società, non il contrario. Questo riflette la visione più ampia della Società 5.0: un modello di innovazione incentrato sull'uomo che cerca di combinare il progresso economico con la risoluzione delle sfide sociali.
Se le tecnologie emergenti come l'intelligenza artificiale vogliono promuovere una società più felice e armoniosa, devono essere costruite su solide basi etiche. Questo inizia con un'attenzione non solo agli standard che le organizzazioni sono tenute a rispettare, ma anche agli standard che vorrebbero raggiungere.












