Intelligenza artificiale
OpenAI, Anthropic e Google sollecitano un’azione mentre la leadership americana nell’IA si riduce

Le principali aziende americane di intelligenza artificiale OpenAI, Anthropic e Google hanno avvertito il governo federale che la leadership tecnologica americana nell’IA è “non ampia e si sta restringendo” mentre i modelli cinesi come Deepseek R1 dimostrano capacità crescenti, secondo i documenti presentati al governo degli Stati Uniti in risposta a una richiesta di informazioni sulla creazione di un Piano d’azione per l’IA.
Queste recenti presentazioni di marzo 2025 evidenziano preoccupazioni urgenti riguardo ai rischi per la sicurezza nazionale, la competitività economica e la necessità di quadri regolatori strategici per mantenere la leadership americana nello sviluppo dell’IA di fronte alla crescente concorrenza globale e al progresso cinese nel settore. Anthropic e Google hanno presentato le loro risposte il 6 marzo 2025, mentre la presentazione di OpenAI è seguita il 13 marzo 2025.
La sfida cinese e Deepseek R1
L’emergere del modello cinese Deepseek R1 ha scatenato significative preoccupazioni tra i principali sviluppatori di IA americani, che lo vedono non come superiore alla tecnologia americana, ma come prova convincente che il divario tecnologico si sta rapidamente restringendo.
OpenAI avverte esplicitamente che “Deepseek mostra che la nostra leadership non è ampia e si sta restringendo”, caratterizzando il modello come “contemporaneamente sovvenzionato dallo stato, controllato dallo stato e disponibile gratuitamente” – una combinazione che considerano particolarmente minacciosa per gli interessi americani e lo sviluppo globale dell’IA.
Secondo l’analisi di OpenAI, Deepseek presenta rischi simili a quelli associati al gigante delle telecomunicazioni cinese Huawei. “Come per Huawei, c’è un rischio significativo nell’utilizzare i modelli DeepSeek in infrastrutture critiche e altri casi d’uso ad alto rischio, dato il potenziale che DeepSeek potrebbe essere costretto dal PCC a manipolare i suoi modelli per causare danni”, ha dichiarato OpenAI nella sua presentazione.
L’azienda ha inoltre sollevato preoccupazioni riguardo alla privacy e alla sicurezza dei dati, notando che le regolamentazioni cinesi potrebbero richiedere a Deepseek di condividere i dati degli utenti con il governo. Ciò potrebbe consentire al Partito Comunista Cinese di sviluppare sistemi di IA più avanzati allineati con gli interessi statali, compromettendo la privacy individuale.
La valutazione di Anthropic si concentra fortemente sulle implicazioni di biosicurezza. La loro valutazione ha rivelato che Deepseek R1 “ha risposto alla maggior parte delle domande sulla weaponizzazione biologica, anche quando formulate con un’intenzione chiaramente maliziosa”. Questa disponibilità a fornire informazioni potenzialmente pericolose si contrappone alle misure di sicurezza implementate dai principali modelli americani.
“Mentre l’America mantiene una leadership nell’IA oggi, DeepSeek mostra che la nostra leadership non è ampia e si sta restringendo”, ha ribadito Anthropic nella sua presentazione, rafforzando il tono urgente degli avvertimenti.
Entrambe le aziende inquadrano la competizione in termini ideologici, con OpenAI che descrive una competizione tra “IA democratica” americana e “IA autocratica, autoritaria” cinese. Suggestono che la disponibilità di Deepseek a generare istruzioni per “attività illecite e dannose come frodi di identità e furto di proprietà intellettuale” rifletta approcci etici fondamentalmente diversi allo sviluppo dell’IA tra i due paesi.
L’emergere di Deepseek R1 è senza dubbio un importante traguardo nella corsa globale all’IA, dimostrando le crescenti capacità della Cina nonostante i controlli alle esportazioni americane su semiconduttori avanzati e sottolineando l’urgenza di un’azione coordinata del governo per mantenere la leadership americana nel settore.
Implicazioni per la sicurezza nazionale
Le presentazioni di tutte e tre le aziende enfatizzano significative preoccupazioni per la sicurezza nazionale derivanti da modelli di IA avanzati, sebbene si avvicinino a questi rischi da angolazioni diverse.
Gli avvertimenti di OpenAI si concentrano fortemente sul potenziale influsso del PCC sui modelli di IA cinesi come Deepseek. L’azienda sottolinea che le regolamentazioni cinesi potrebbero costringere Deepseek a “compromettere infrastrutture critiche e applicazioni sensibili” e richiedere la condivisione dei dati degli utenti con il governo. La condivisione di questi dati potrebbe consentire lo sviluppo di sistemi di IA più sofisticati allineati con gli interessi statali cinesi, creando problemi di privacy immediati e minacce alla sicurezza a lungo termine.
Le preoccupazioni di Anthropic si concentrano sui rischi di biosicurezza posti dalle capacità di IA avanzate, indipendentemente dal loro paese di origine. In una rivelazione particolarmente allarmante, Anthropic ha rivelato che “il nostro sistema più recente, Claude 3.7 Sonnet, dimostra miglioramenti preoccupanti nella sua capacità di supportare aspetti dello sviluppo di armi biologiche”. Questa ammissione candida sottolinea la natura duale degli avanzati sistemi di IA e la necessità di robuste salvaguardie.
Anthropic ha inoltre identificato ciò che descrivono come una “lacuna regolatoria nelle restrizioni sui chip americani” relative ai chip H20 di Nvidia. Sebbene questi chip soddisfino i requisiti di prestazione ridotti per l’esportazione in Cina, “eccellono nella generazione di testo (‘sampling’) – un componente fondamentale delle metodologie di apprendimento per rinforzo avanzate critiche per le attuali capacità dei modelli di frontiera”. Anthropic ha sollecitato “un’azione regolatoria immediata” per affrontare questa potenziale vulnerabilità negli attuali quadri di controllo delle esportazioni.
Google, mentre riconosce i rischi di sicurezza dell’IA, sostiene un approccio più equilibrato ai controlli alle esportazioni. L’azienda avverte che le attuali regole di esportazione dell’IA “potrebbero compromettere gli obiettivi di competitività economica… imponendo oneri sproporzionati ai fornitori di servizi cloud americani”. Al contrario, Google raccomanda “controlli alle esportazioni equilibrati che proteggono la sicurezza nazionale consentendo le esportazioni americane e le operazioni commerciali globali”.
Tutte e tre le aziende enfatizzano la necessità di capacità di valutazione governativa migliorate. Anthropic sollecita specificamente la costruzione della “capacità del governo federale di testare e valutare potenti modelli di IA per le capacità di sicurezza nazionale” per comprendere meglio gli usi impropri da parte degli avversari. Ciò comporterebbe la conservazione e il rafforzamento dell’Istituto per la sicurezza dell’IA, la direzione del NIST per sviluppare valutazioni di sicurezza e l’assemblea di squadre di esperti interdisciplinari.
Tabella di confronto: OpenAI, Anthropic, Google
| Area di focus | OpenAI | Anthropic | |
| Preoccupazione principale | Minacce politiche ed economiche da parte di IA controllata dallo stato | Rischi di biosicurezza da modelli avanzati | Mantenimento dell’innovazione bilanciando la sicurezza |
| Opinione su Deepseek R1 | “Sovvenzionato dallo stato, controllato dallo stato e disponibile gratuitamente” con rischi simili a quelli di Huawei | Disposto a rispondere a “domande sulla weaponizzazione biologica” con intento malizioso | Focus meno specifico su Deepseek, più sulla concorrenza più ampia |
| Priorità per la sicurezza nazionale | Influenza del PCC e rischi per la sicurezza dei dati | Minacce di biosicurezza e lacune nei controlli sui chip | Controlli alle esportazioni equilibrati che non gravino sui fornitori americani |
| Approccio regolatorio | Partnership volontaria con il governo federale; unico punto di contatto | Capacità di test governativa migliorata; controlli alle esportazioni rafforzati | “Quadro federale pro-innovazione per l’IA”; governance e standard settoriali |
| Focus sull’infrastruttura | Adozione governativa di strumenti di IA di frontiera | Espansione energetica (50GW entro il 2027) per lo sviluppo dell’IA | Azione coordinata sull’energia, riforma delle autorizzazioni |
| Raccomandazione distintiva | Quadro di controllo alle esportazioni a livelli per promuovere l'”IA democratica” | Azione regolatoria immediata sui chip H20 di Nvidia esportati in Cina | Accesso dell’industria ai dati apertamente disponibili per un apprendimento equo |
Strategie per la competitività economica
I requisiti di infrastruttura, in particolare le esigenze energetiche, emergono come un fattore critico per mantenere la leadership americana nell’IA. Anthropic ha avvertito che “entro il 2027, l’addestramento di un singolo modello di IA di frontiera richiederà cluster di calcolo in rete che attingono circa cinque gigawatt di potenza”. Hanno proposto un obiettivo nazionale ambizioso per costruire 50 gigawatt aggiuntivi di potenza dedicati specificamente all’industria dell’IA entro il 2027, insieme a misure per semplificare le autorizzazioni e accelerare l’approvazione delle linee di trasmissione.
OpenAI inquadra nuovamente la competizione come una competizione ideologica tra “IA democratica” e “IA autocratica, autoritaria” costruita dal PCC. La loro visione per l'”IA democratica” enfatizza “un mercato libero che promuove la libera e leale concorrenza” e “la libertà per gli sviluppatori e gli utenti di lavorare con e dirigere i nostri strumenti come meglio credono”, all’interno di adeguate garanzie di sicurezza.
Tutte e tre le aziende hanno offerto raccomandazioni dettagliate per mantenere la leadership americana. Anthropic ha sottolineato l’importanza di “rafforzare la competitività economica americana” e assicurare che “i benefici economici dell’IA siano ampiamente condivisi in tutta la società”. Hanno sostenuto “la sicurezza e l’aumento dell’offerta energetica americana” come un prerequisito critico per mantenere lo sviluppo dell’IA all’interno dei confini americani, avvertendo che le limitazioni energetiche potrebbero costringere gli sviluppatori a spostarsi all’estero.
Google ha sollecitato azioni decisive per “superchargare lo sviluppo dell’IA americano”, concentrandosi su tre aree chiave: investimenti in IA, accelerazione dell’adozione dell’IA da parte del governo e promozione di approcci pro-innovazione a livello internazionale. L’azienda ha enfatizzato la necessità di “un’azione coordinata a livello federale, statale, locale e industriale sulle politiche come la riforma delle autorizzazioni e della trasmissione per affrontare le esigenze energetiche in aumento” insieme a “controlli alle esportazioni equilibrati” e “finanziamenti continuati per la ricerca e lo sviluppo dell’IA di base”.
La presentazione di Google ha particolarmente sottolineato la necessità di un “quadro federale pro-innovazione per l’IA” che eviti una patchwork di regolamentazioni statali, garantendo al contempo l’accesso dell’industria ai dati apertamente disponibili per l’addestramento dei modelli. Il loro approccio enfatizza “governance e standard settoriali, focalizzati, settoriali e basati sul rischio” piuttosto che una regolamentazione ampia.
Raccomandazioni regolatorie
Un approccio federale unificato alla regolamentazione dell’IA è emerso come un tema costante in tutte le presentazioni. OpenAI ha avvertito contro “l’arbitraggio regolatorio creato da singoli stati americani” e ha proposto un “approccio olistico che consente una partnership volontaria tra il governo federale e il settore privato”. Il loro quadro prevede la supervisione del Dipartimento del Commercio, potenzialmente attraverso un rinnovato US AI Safety Institute, fornendo un unico punto di contatto per le aziende di IA per impegnarsi con il governo sui rischi di sicurezza.
Per quanto riguarda i controlli alle esportazioni, OpenAI ha sostenuto un quadro a livelli progettato per promuovere l’adozione americana dell’IA in paesi allineati con i valori democratici, mentre limita l’accesso per la Cina e i suoi alleati. Anthropic ha chiesto in modo simile “controlli alle esportazioni rafforzati per allargare il vantaggio dell’IA americano” e “migliorare drasticamente la sicurezza dei laboratori di frontiera americani” attraverso una collaborazione rafforzata con le agenzie di intelligence.
Le considerazioni relative al diritto d’autore e alla proprietà intellettuale sono state trattate in modo prominente sia nelle raccomandazioni di OpenAI che di Google. OpenAI ha sottolineato l’importanza del mantenimento dei principi di fair use per consentire ai modelli di IA di apprendere da materiali protetti da diritto d’autore senza compromettere il valore commerciale delle opere esistenti. Hanno avvertito che regole di diritto d’autore eccessivamente restrittive potrebbero svantaggiare le aziende di IA americane rispetto ai concorrenti cinesi. Google ha ribadito questo punto di vista, sostenendo “regole di diritto d’autore equilibrate, come fair use e eccezioni per l’estrazione di testo e dati” che hanno descritto come “critiche per consentire ai sistemi di IA di apprendere dalla conoscenza precedente e dai dati pubblicamente disponibili”.
Tutte e tre le aziende hanno enfatizzato la necessità di un’adozione accelerata delle tecnologie di IA da parte del governo. OpenAI ha chiesto una “strategia di adozione governativa ambiziosa” per modernizzare i processi federali e distribuire in modo sicuro strumenti di IA di frontiera. Hanno raccomandato specificamente di rimuovere gli ostacoli all’adozione dell’IA, compresi processi di accreditamento obsoleti come FedRAMP, autorità di test restrittive e percorsi di acquisto inflessibili. Anthropic ha sostenuto in modo simile la “promozione di un’acquisizione rapida di IA in tutto il governo federale” per rivoluzionare le operazioni e rafforzare la sicurezza nazionale.
Google ha suggerito “la semplificazione delle pratiche di accreditamento, autorizzazione e acquisto obsolete” all’interno del governo per accelerare l’adozione dell’IA. Hanno enfatizzato l’importanza di regole di acquisto pubblico efficaci e di una maggiore interoperabilità nelle soluzioni cloud del governo per facilitare l’innovazione.
Le presentazioni complete di queste aziende leader nel settore dell’IA presentano un messaggio chiaro: mantenere la leadership americana nell’intelligenza artificiale richiede un’azione coordinata del governo su più fronti – dall’infrastruttura e dai quadri regolatori alla protezione della sicurezza nazionale e alla modernizzazione del governo – in particolare mentre la concorrenza della Cina si intensifica.












