Leader di pensiero
Trovare l’Equilibrio: Approcci Globali per Mitigare i Rischi Legati all’Intelligenza Artificiale

Non è un segreto che negli ultimi anni, le tecnologie moderne hanno spinto i confini etici all’interno di quadri giuridici esistenti che non erano stati creati per adattarsi a loro, risultando in campi minati giuridici e normativi. Per cercare di combattere gli effetti di questo, i regolatori stanno scegliendo di procedere in vari modi diversi tra paesi e regioni, aumentando le tensioni globali quando non si trova un accordo.
Queste differenze normative sono state evidenziate in un recente vertice sull’azione dell’AI a Parigi. La dichiarazione finale dell’evento si è concentrata su questioni di inclusività e apertura nello sviluppo dell’AI. Interessantemente, ha menzionato solo in modo generale la sicurezza e l’affidabilità, senza enfatizzare specifici rischi legati all’AI, come le minacce alla sicurezza. Redatta da 60 nazioni, il Regno Unito e gli Stati Uniti sono stati assenti dalla firma della dichiarazione, il che mostra quanto poco consenso ci sia attualmente tra i paesi chiave.
Affrontare i rischi dell’AI a livello globale
Lo sviluppo e la distribuzione dell’AI sono regolati in modo diverso all’interno di ogni paese. Tuttavia, la maggior parte si trova da qualche parte tra i due estremi – le posizioni degli Stati Uniti e dell’Unione Europea (UE).
Il modo degli Stati Uniti: innovare prima, regolare dopo
Negli Stati Uniti non ci sono atti federali che regolano l’AI in particolare, ma si affidano a soluzioni basate sul mercato e linee guida volontarie. Tuttavia, ci sono alcuni pezzi chiave di legislazione per l’AI, tra cui il National AI Initiative Act, che mira a coordinare la ricerca federale sull’AI, il Federal Aviation Administration Reauthorisation Act e il quadro di gestione del rischio volontario del National Institute of Standards and Technology (NIST).
Il paesaggio normativo degli Stati Uniti rimane fluido e soggetto a grandi cambiamenti politici. Ad esempio, nel mese di ottobre 2023, il presidente Biden ha emesso un ordine esecutivo sull’AI sicura, sicura e affidabile, che ha stabilito standard per le infrastrutture critiche, migliorato la sicurezza informatica basata sull’AI e regolato i progetti di AI finanziati a livello federale. Tuttavia, nel gennaio 2025, il presidente Trump ha revocato questo ordine esecutivo, in una svolta lontana dalla regolamentazione e verso la priorità dell’innovazione.
L’approccio degli Stati Uniti ha i suoi critici. Notano che la sua “natura frammentata” porta a una rete complessa di regole che “mancano di standard applicabili“, e ha “lacune nella protezione della privacy“. Tuttavia, l’intera posizione è in fluttuazione – nel 2024, i legislatori statali hanno introdotto quasi 700 nuove leggi sull’AI e ci sono stati numerosi dibattiti sull’AI nella governance, nonché sull’AI e la proprietà intellettuale. Sebbene sia evidente che il governo degli Stati Uniti non si tiri indietro di fronte alla regolamentazione, è chiaro che sta cercando modi per implementarla senza dover compromettere l’innovazione.
Il modo dell’UE: dare priorità alla prevenzione
L’UE ha scelto un approccio diverso. Nel mese di agosto 2024, il Parlamento europeo e il Consiglio hanno introdotto l’Atto sull’Intelligenza Artificiale (AI Act), che è stato ampiamente considerato il pezzo più completo di regolamentazione dell’AI fino ad oggi. Utilizzando un approccio basato sul rischio, l’atto impone regole severe ai sistemi di AI ad alta sensibilità, ad esempio quelli utilizzati nel settore sanitario e nelle infrastrutture critiche. Le applicazioni a basso rischio affrontano solo un controllo minimo, mentre in alcune applicazioni, come i sistemi di scoring sociale gestiti dal governo, sono completamente vietati.
Nell’UE, la conformità è obbligatoria non solo all’interno dei suoi confini, ma anche per qualsiasi fornitore, distributore o utente di sistemi di AI che operano nell’UE, o che offrono soluzioni di AI al suo mercato – anche se il sistema è stato sviluppato all’esterno. È probabile che ciò ponga sfide per i fornitori di prodotti integrati non dell’UE mentre lavorano per adattarsi.
Le critiche all’approccio dell’UE includono il presunto fallimento nell’instaurare uno standard d’oro per i diritti umani. È stata anche notata un’eccessiva complessità e una mancanza di chiarezza. I critici sono preoccupati per le esigenti richieste tecniche dell’UE, poiché arrivano in un momento in cui l’UE sta cercando di rafforzare la sua competitività.
Trovare un terreno comune normativo
Nel frattempo, il Regno Unito ha adottato un quadro “leggero” che si trova da qualche parte tra l’UE e gli Stati Uniti, basato su valori fondamentali come la sicurezza, l’equità e la trasparenza. I regolatori esistenti, come l’Ufficio del Commissario per l’Informazione, detengono il potere di implementare questi principi all’interno dei loro rispettivi ambiti.
Il governo del Regno Unito ha pubblicato un Piano d’Azione per le Opportunità dell’AI, che delinea misure per investire nelle fondamenta dell’AI, implementare l’adozione dell’AI a livello di economia e favorire la creazione di “sistemi di AI di casa”. Nel mese di novembre 2023, il Regno Unito ha fondato l’Istituto per la Sicurezza dell’AI (AISI), evoluzione del Frontier AI Taskforce. L’AISI è stato creato per valutare la sicurezza dei modelli di AI avanzati, collaborando con importanti sviluppatori per raggiungere questo obiettivo attraverso test di sicurezza.
Tuttavia, le critiche all’approccio del Regno Unito alla regolamentazione dell’AI includono capacità di applicazione limitate e una mancanza di coordinamento tra la legislazione settoriale. I critici hanno anche notato una mancanza di un’autorità normativa centrale.
Come il Regno Unito, altri paesi importanti hanno anche trovato il loro posto da qualche parte nello spettro tra gli Stati Uniti e l’UE. Ad esempio, il Canada ha introdotto un approccio basato sul rischio con il proposto Atto sull’AI e i Dati (AIDA), progettato per bilanciare l’innovazione, la sicurezza e le considerazioni etiche. Il Giappone ha adottato un approccio “centrato sull’uomo” all’AI pubblicando linee guida che promuovono lo sviluppo affidabile. Nel frattempo, in Cina, la regolamentazione dell’AI è strettamente controllata dallo stato, con leggi recenti che richiedono ai modelli di AI generativa di sottoporsi a valutazioni di sicurezza e allinearsi con i valori socialisti. Allo stesso modo, l’Australia ha rilasciato un quadro etico per l’AI e sta esaminando l’aggiornamento delle sue leggi sulla privacy per affrontare le sfide emergenti poste dall’innovazione dell’AI.
Come stabilire la cooperazione internazionale?
Mentre la tecnologia dell’AI continua a evolversi, le differenze tra gli approcci normativi stanno diventando sempre più evidenti. Ogni approccio individuale adottato riguardo alla privacy dei dati, alla protezione del copyright e ad altri aspetti rende più difficile raggiungere un consenso globale coerente sui principali rischi legati all’AI. In queste circostanze, la cooperazione internazionale è cruciale per stabilire standard di base che affrontino i rischi chiave senza limitare l’innovazione.
La risposta alla cooperazione internazionale potrebbe giacere con organizzazioni globali come l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), le Nazioni Unite e diverse altre, che attualmente stanno lavorando per stabilire standard internazionali e linee guida etiche per l’AI. Il percorso in avanti non sarà facile, poiché richiede a tutti nel settore di trovare un terreno comune. Se consideriamo che l’innovazione si sta muovendo a una velocità impressionante – il tempo per discutere e concordare è adesso.












