Regolamentazione
Il nuovo codice di condotta dell’UE per l’IA è destinato a influenzare la regolamentazione

La Commissione europea ha recentemente introdotto un Codice di condotta che potrebbe cambiare il modo in cui le aziende di intelligenza artificiale operano. Non si tratta solo di un’altra serie di linee guida, ma piuttosto di un completo ripensamento della sorveglianza dell’IA che nemmeno i più grandi player possono ignorare.
Cosa lo rende diverso? Per la prima volta, stiamo vedendo regole concrete che potrebbero costringere aziende come OpenAI e Google ad aprire i loro modelli per test esterni, un cambiamento fondamentale nel modo in cui i sistemi di intelligenza artificiale potrebbero essere sviluppati e distribuiti in Europa.
I nuovi giocatori chiave nella sorveglianza dell’IA
La Commissione europea ha creato un quadro che si concentra specificamente su ciò che definiscono sistemi di intelligenza artificiale con “rischio sistemico”. Stiamo parlando di modelli addestrati con più di 10^25 FLOPs di potenza computazionale – una soglia che GPT-4 ha già superato.
Le aziende dovranno segnalare i loro piani di addestramento dell’IA due settimane prima di iniziare.
Al centro di questo nuovo sistema ci sono due documenti chiave: il Framework per la sicurezza e la sicurezza (SSF) e il Rapporto sulla sicurezza e la sicurezza (SSR). L’SSF è una roadmap completa per la gestione dei rischi dell’IA, che copre tutto, dall’identificazione iniziale dei rischi alle misure di sicurezza continue. Nel frattempo, l’SSR serve come strumento di documentazione dettagliata per ogni modello individuale.
Test esterni per modelli di IA ad alto rischio
La Commissione sta chiedendo test esterni per modelli di intelligenza artificiale ad alto rischio. Non si tratta del solito controllo di qualità interno – esperti indipendenti e l’Ufficio dell’IA dell’UE stanno esaminando questi sistemi.
Le implicazioni sono grandi. Se sei OpenAI o Google, improvvisamente devi lasciare che esperti esterni esaminino i tuoi sistemi. La bozza afferma esplicitamente che le aziende devono “garantire test di esperti indipendenti sufficienti prima della distribuzione”. È un grande cambiamento rispetto all’attuale approccio di autoregolamentazione.
Sorge la domanda: chi è qualificato per testare questi sistemi di intelligenza artificiale incredibilmente complessi? L’Ufficio dell’IA dell’UE sta entrando in un territorio che non è mai stato esplorato prima. Avranno bisogno di esperti che possano comprendere e valutare la nuova tecnologia di intelligenza artificiale, mantenendo al tempo stesso la massima riservatezza su ciò che scoprono.
Questo requisito di test esterno potrebbe diventare obbligatorio in tutta l’UE attraverso un atto di esecuzione della Commissione. Le aziende possono cercare di dimostrare la conformità attraverso “mezzi alternativi adeguati”, ma nessuno sa esattamente cosa significhi nella pratica.
La protezione del diritto d’autore diventa seria
L’UE sta anche diventando seria sulla protezione del diritto d’autore. Stanno costringendo i fornitori di intelligenza artificiale a creare politiche chiare su come gestiscono la proprietà intellettuale.
La Commissione sta sostenendo lo standard robots.txt – un file semplice che dice ai web crawler dove possono e non possono andare. Se un sito web dice “no” attraverso robots.txt, le aziende di intelligenza artificiale non possono semplicemente ignorarlo e addestrare comunque il modello su quel contenuto. I motori di ricerca non possono penalizzare i siti per l’uso di queste esclusioni. È una mossa di potere che riporta i creatori di contenuti al volante.
Le aziende di intelligenza artificiale dovranno anche evitare attivamente i siti di pirateria quando raccolgono dati di addestramento. L’UE li sta anche indirizzando alla loro “Lista di controllo della contraffazione e della pirateria” come punto di partenza.
Cosa significa per il futuro
L’UE sta creando un intero nuovo campo di gioco per lo sviluppo dell’IA. Questi requisiti influenzeranno tutto, dal modo in cui le aziende pianificano i loro progetti di intelligenza artificiale al modo in cui raccolgono i loro dati di addestramento.
Ogni grande azienda di intelligenza artificiale si trova ora di fronte a una scelta. Devono:
- Aprire i loro modelli per test esterni
- Trovare cosa significhi esattamente quei misteriosi “mezzi alternativi” di conformità
- O potenzialmente limitare le loro operazioni nel mercato dell’UE
La tempistica qui è importante. Non si tratta di una regolamentazione nel lontano futuro – la Commissione si sta muovendo velocemente. Sono riusciti a coinvolgere circa 1.000 stakeholder divisi in quattro gruppi di lavoro, tutti impegnati a definire i dettagli di come funzionerà.
Per le aziende che costruiscono sistemi di intelligenza artificiale, i giorni del “muoversi velocemente e capire le regole dopo” potrebbero essere finiti. Dovranno iniziare a pensare a questi requisiti ora, non quando diventeranno obbligatori. Ciò significa:
- Pianificare audit esterni nel loro cronogramma di sviluppo
- Configurare sistemi di conformità robusti per il diritto d’autore
- Costruire framework di documentazione che corrispondano ai requisiti dell’UE
L’impatto reale di queste regolamentazioni si svilupperà nei prossimi mesi. Mentre alcune aziende potrebbero cercare soluzioni alternative, altre integreranno questi requisiti nei loro processi di sviluppo. Il quadro dell’UE potrebbe influenzare il modo in cui lo sviluppo dell’IA avviene a livello globale, soprattutto se altre regioni seguiranno con misure di sorveglianza simili. Mentre queste regole si spostano dalla bozza all’attuazione, l’industria dell’IA affronta il suo più grande cambiamento regolamentare fino ad ora.










