Connect with us

Perché le aziende dovrebbero seguire un approccio basato sui valori per la governance dell’AI

Leader di pensiero

Perché le aziende dovrebbero seguire un approccio basato sui valori per la governance dell’AI

mm

A settembre 2025, per la prima volta, tutti gli stati membri delle Nazioni Unite si sono riuniti per discutere della governance internazionale dell’AI; molti sono stati rappresentati di nuovo a febbraio al Delhi’s AI Impact Summit. L’evento ha portato al lancio di due nuovi organismi centrati sulla governance dell’AI; ma è stato, al massimo, un successo simbolico.

I nuovi meccanismi delle Nazioni Unite erano stati progettati per ottenere il consenso: evitano aree contestate come l’uso militare dell’AI e mancano di fonti di finanziamento e poteri di applicazione chiari. Ciò non dovrebbe sorprendere gli osservatori esperti. Le Nazioni Unite di oggi non hanno la capacità di muoversi rapidamente o di garantire il rispetto universale delle loro decisioni, rendendole un forum difficile per apportare cambiamenti reali.

Ciò si adatta a un modello ben stabilito. Nonostante anni di tentativi sparsi di costruire un consenso sulle norme dell’AI, non ci sono stati accordi internazionali significativi, creando un vuoto in cui i singoli paesi e i blocchi sono stati costretti a sviluppare le proprie regole. Eppure, la governance efficace dell’AI è cruciale se vogliamo vederla adottata ampiamente, fidata dal pubblico e utilizzata in modi che forniscono benefici sociali ed economici duraturi

Fai del tuo meglio e ripara

Per le aziende globali che costruiscono e gestiscono sistemi di AI, la mancanza di meccanismi di governance comuni e concordati è problematica. Desiderano distribuire sistemi di AI in tutto il mondo, ma nessuna giurisdizione segue lo stesso insieme di regole. Quindi sono costretti a creare un quadro di governance generico intorno al loro sistema, poi a ricostruirlo da zero in ogni paese in cui operano per assicurarsi che sia conforme alle leggi e normative locali. Questo approccio crea un’enorme quantità di lavoro extra, rende le iniziative di AI più costose e soggette a ritardi e indebolisce la capacità delle aziende globali di realizzare economie di scala e condividere strumenti efficaci con gli utenti di tutto il mondo.

Tuttavia, esiste un’alternativa. Per le aziende che cercano di semplificare il loro approccio, la migliore opzione potrebbe essere quella di costruire un quadro di governance dell’AI che tenga conto di principi etici comuni in queste diverse regioni, garantendo che soddisfino standard elevati ovunque in termini di protezione della libertà, della privacy e della sicurezza degli individui. Questa tecnica rappresenta un modo potente per le aziende di AI per aumentare la fiducia del pubblico nella loro tecnologia, rafforzare la loro base di clienti e sfruttare i benefici potenziali dell’AI per la società.

Sei valori chiave per la governance dell’AI

Per qualsiasi organizzazione interessata ad adottare un approccio basato sui valori per la governance dell’AI, suggerirei di utilizzare i sei valori chiave che seguiamo: responsabilità, spiegabilità, trasparenza, equità, sicurezza e contestabilità.

Abbiamo scelto questi valori perché coprono tutte le principali aree del ciclo di vita del sistema di AI e perché sono già stati codificati in vari standard internazionali e nazionali relativi all’AI, come lo standard ISO/IEC 42001 dell’Organizzazione internazionale per la standardizzazione e il Artificial Intelligence Playbook per il governo del Regno Unito.

Per iniziare dall’inizio, la responsabilità significa sapere chi è responsabile di cosa in ogni fase del ciclo di vita dell’AI. Senza una chiara proprietà, i controlli essenziali possono essere omessi perché nessun individuo o team ha la responsabilità ultima. Le organizzazioni dovrebbero assegnare proprietari senior, nominati – come il loro Chief AI Officer – ai sistemi di AI e alle fasi chiave e utilizzare un modello di governance basato sul rischio, applicando lo stesso scrutinio agli strumenti di terze parti come a quelli sviluppati internamente. Ciò significa comprendere i termini del fornitore, le limitazioni e le responsabilità altrettanto bene come comprendono i propri sistemi.

L’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) cattura bene questo nella sua guida per avanzare la responsabilità nell’AI, che raccomanda alle organizzazioni di creare “meccanismi per incorporare il processo di gestione del rischio dell’AI nella governance organizzativa più ampia, promuovendo una cultura di gestione del rischio all’interno delle organizzazioni e in tutta la catena di valore dell’AI”.

Successivamente, c’è la spiegabilità. Le organizzazioni dovrebbero essere in grado di mostrare come un sistema di AI raggiunge una decisione. Ciò richiede meccanismi per documentare e tracciare la presa di decisioni, insieme a registri chiari della progettazione del sistema, dei dati di formazione e dei processi decisionali. Presi insieme, ciò consente ai team di comprendere la discendenza delle informazioni dall’inizio alla distribuzione del sistema.

L’equità si concentra sul garantire che i sistemi di AI producano risultati equi e non replichino o amplifichino i pregiudizi esistenti. Senza controlli deliberati, i sistemi possono causare danni fornendo risultati distorti – un problema particolare in aree ad alto impatto come il reclutamento, la sanità e la giustizia penale. Per mitigare ciò, le organizzazioni dovrebbero implementare misure di rilevamento dei pregiudizi, esaminare regolarmente i risultati in tutti i gruppi pertinenti e progettare quadri di governance che possano accogliere i requisiti locali di non discriminazione. Nella pratica, ciò significa costruire sistemi per soddisfare gli standard legali più elevati che sono probabili che incontrino, inclusi gli obblighi previsti da leggi come il Equality Act 2010 del Regno Unito e la Carta dei diritti fondamentali dell’UE.

La trasparenza riguarda la chiarezza per gli utenti e i regolatori. Le persone dovrebbero capire quando viene utilizzata l’AI, quale ruolo gioca nella presa di decisioni e quali dati la sostengono. Un punto di partenza pratico è standardizzare la documentazione in tutti i sistemi di AI, supportata da strumenti interni come le carte dei modelli: brevi documenti forniti con i modelli di apprendimento automatico che spiegano il contesto in cui i modelli sono destinati a essere utilizzati, i dettagli delle procedure di valutazione delle prestazioni e altre informazioni rilevanti. Senza trasparenza, gli utenti non possono contestare risultati ingiusti, i regolatori non possono intervenire efficacemente e gli impatti dannosi potrebbero essere nascosti.

La sicurezza consiste nel proteggere i sistemi di AI dall’accesso non autorizzato, dalla manipolazione o dal comportamento non intenzionale. Se la sicurezza è debole, gli AI possono esporre le organizzazioni, gli utenti e i loro dati a rischi finanziari e di reputazione. Le organizzazioni dovrebbero definire soglie di prestazioni e accuratezza, testare i sistemi in condizioni realistiche e incorporare test di squadra rossa per identificare le vulnerabilità.

Infine, la contestabilità garantisce che le persone abbiano un modo chiaro e accessibile per contestare o appellarsi alle decisioni guidate dall’AI. Senza di essa, gli utenti interessati non hanno alcun ricorso e i problemi potrebbero non essere mai affrontati o risolti. Le organizzazioni dovrebbero fornire canali di segnalazione nel punto di utilizzo, assegnare proprietari senior per gestire le reclami e assicurarsi che i sistemi possano essere interrotti, esaminati o aggiornati se necessario.

Quali sono i vantaggi di un quadro basato sui valori?

Ci sono due ragioni potenti per adottare questo approccio basato sui valori per la governance dell’AI. In primo luogo, perché coloro che costruiscono e distribuiscono sistemi di AI hanno una responsabilità etica nei confronti delle persone e delle organizzazioni interessate; e, in secondo luogo, perché questo è un modo più efficace per realizzare i benefici promessi dell’AI nella pratica.

Gli utenti dei sistemi di AI, sia aziendali che individuali, ripongono fiducia implicita nei loro creatori affinché non utilizzino i dati personali in modo improprio o li espongano a rischi non necessari. Quando le organizzazioni violano questa fiducia, diventa molto difficile per loro mantenere questi utenti. Alla fine, a meno che le persone non si fidino dei sistemi di AI e non vedano i benefici chiari che forniscono, non accetteranno la loro introduzione. Ciò causerà ulteriori divisioni sociali ed economiche e perderemo molte delle opportunità offerte da questa tecnologia.

D’altra parte, le aziende che applicano un quadro basato sui valori ovunque – inclusi nelle regioni con requisiti di governance più rilassati – possono dimostrare ai clienti, agli investitori e ai regolatori che si stanno attenendo a uno standard più elevato rispetto al semplice rispetto delle norme. Ciò costruisce fiducia, coinvolgimento e, alla fine, successo aziendale.

Una solida governance dell’AI è un creatore di valore, non un onere di conformità. Consente alle aziende di portare nuovi prodotti sul mercato più rapidamente, ridurre l’esposizione al rischio e scalare le loro soluzioni in più mercati con fiducia.

Il rapporto “The state of AI” di McKinsey ha scoperto che “la supervisione della governance dell’AI da parte di un CEO… è un elemento più correlato all’impatto sul fondo dell’organizzazione dall’uso dell’AI generico,” sottolineando i benefici commerciali di un tale approccio. A questo riguardo, costruire forti quadri etici all’interno dei sistemi di AI rappresenta un interesse illuminato.

Al di là di tutto questo, tuttavia, è semplicemente la cosa giusta da fare. Abbiamo costruito la nostra politica etica globale per l’AI intorno allo stesso principio: che le tecnologie avanzate devono servire le persone e la società, non il contrario. Ciò riflette la visione più ampia della Società 5.0: un modello di innovazione centrato sull’uomo che cerca di combinare il progresso economico con la risoluzione delle sfide sociali.

Se le tecnologie emergenti come l’AI devono favorire una società più felice e armoniosa, devono essere costruite su solide fondamenta etiche. Ciò inizia con un focus non solo sugli standard che le organizzazioni sono tenute a rispettare, ma anche sugli standard che desiderano raggiungere.

Isabella Grandi è Direttore di Strategia Dati e Intelligenza Artificiale, Governance e Etica presso NTT DATA UK&I. Lavora in partnership con organizzazioni per plasmare e fornire intelligenza artificiale responsabile e governance dell'IA che le portino dal loro stato attuale a un modello operativo più maturo e basato sui dati.

Il suo lavoro si concentra sull'integrare la pratica etica e la gestione robusta dei rischi dell'IA nel modo in cui le organizzazioni progettano e implementano l'IA, assicurando che l'uso responsabile sia integrato nelle strutture decisionali e nelle operazioni quotidiane.