Angolo di Anderson
L’AI richiederà lo stesso tipo di assicurazione socializzata dell’energia nucleare?

Gli Stati Uniti sono spesso intervenuti in nuove aree tecnologiche quando le compagnie assicuratrici si sono spaventate, e questo sembra probabile che accada di nuovo con l’AI; ma i rischi sono diversi questa volta?
Funzionalità L’amministrazione attuale degli Stati Uniti ha ripetutamente mostrato il suo impegno per garantire che le libertà laissez faire che la Cina godono nello sviluppo di sistemi di intelligenza artificiale siano rispecchiate negli Stati Uniti. Dal momento che l’America sta attualmente prendendo una forte posizione esecutiva e sta esercitando la sua influenza con una mano molto pesante, gli eventi recenti suggeriscono che le sue politiche sull’AI potrebbero essere riflesse nella legislazione futura dei paesi che dipendono da buone relazioni con gli Stati Uniti.
Quindi sarà interessante vedere come gli Stati Uniti risponderanno alla richiesta molto segnalata al congresso da parte delle principali compagnie assicuratrici di essere autorizzate a offrire polizze che escludono la copertura di responsabilità relative ai sistemi di intelligenza artificiale come chatbot e intelligenza artificiale agente.
Secondo il rapporto del FT sopra linkato, i gruppi assicurativi AIG, Great American e WR Berkley sono tra molti altri che chiedono di avere tali esclusioni consentite.
Il FT nota che WR Berkley ha chiesto un’esclusione che proibirebbe le richieste relative a “qualsiasi uso reale o presunto” di intelligenza artificiale, o qualsiasi servizio o prodotto che “incorpora” intelligenza artificiale.
Non puoi fare causa al cane
Questo è stato uno sviluppo prevedibile: allo stesso tempo in cui l’amministrazione degli Stati Uniti cerca di rimuovere la burocrazia dalla cultura di sviluppo dell’AI americana, in modo che possa competere su un campo di gioco livello con la Cina, il fatto che i sistemi di intelligenza artificiale prominenti siano raramente addestrati su materiali con diritti chiari sta causando una crescente ondata di cause legali da parte di influenti giocatori come Disney e Universal.
Il piano d’azione sull’AI degli Stati Uniti del 2025 (linkato sopra) menziona molto poco i titolari dei diritti d’autore; e l’apparente impulso del paese verso la sepoltura del problema, alla maniera cinese, sembra riflesso nella sua determinazione a imporre il laissez faire agli stati dissenzienti.
Tuttavia, le preoccupazioni esposte nel rapporto del FT possono estendersi oltre le questioni relative ai diritti d’autore, nel caso di sistemi di intelligenza artificiale che hanno controllo agente di infrastrutture, o altri sistemi fondamentali, come meccanismi di mercato azionario.
La magistratura degli Stati Uniti ha ampiamente determinato che l’AI sarà ritenuta responsabile per i suoi errori, con i suoi proprietari responsabili per le sue disavventure – molto come un proprietario di cani sarà responsabile per eventuali lesioni inflitte dal suo cane. Questa è una prospettiva cupa per le compagnie assicuratrici, che – tra gli altri problemi – sono preoccupate per la capacità dell’intelligenza artificiale generativa di allucinare in modi potenzialmente dannosi.
Costruzione assicurata
Tuttavia, questo prevedibile aumento di lamentele da parte del settore assicurativo ha un notevole precedente storico in aree come l’industria nucleare, lo spazio e l’aviazione, e lo sviluppo di vaccini, tra gli altri – circostanze in cui gli Stati Uniti hanno determinato che le garanzie governative e la copertura assicurativa erano essenziali per nuove tecnologie importanti, al fine di non cedere progressi a paesi (come l’ex Unione Sovietica o la Francia) dove l’assicurazione statale delle infrastrutture era molto più comune.
Nucleare
Ad esempio, nel 1957 il Congresso ha limitato la responsabilità dell’industria nucleare con il Price-Anderson Act, poiché era diventato evidente che senza una garanzia governativa, le compagnie assicuratrici private non avrebbero mai sostenuto l’energia atomica.
La legge ha limitato quanto le utility e i produttori di reattori potevano essere citati in giudizio per, e ha istituito un meccanismo di pagamento per coprire gli incidenti. È stato successivamente rinnovato più volte, più recentemente con un’estensione fino al 2065, nel disegno di legge di spesa di quest’anno.
Aerospaziale
Inoltre, il governo degli Stati Uniti protegge le società di lancio spaziale commerciali da responsabilità catastrofiche coprendo i danni che superano quanto le compagnie assicuratrici private sono disposte a sottoscrivere. Sotto il Commercial Space Launch Act, i fornitori di lancio sono obbligati a possedere una quantità fissa di assicurazione, con un indennizzo federale che scatta sopra tale importo, attualmente fissato a 2,7 miliardi di dollari.
Questa rete di sicurezza secondaria, mai invocata, consente a società come SpaceX e Blue Origin di sviluppare programmi spaziali senza essere ostacolate dalla minaccia di un fallimento non assicurabile.
Terrorismo
Non sorprendentemente, dopo gli eventi dell’11 settembre, l’industria assicurativa, che aveva coperto in precedenza tali rischi ai sensi dei termini delle polizze generali, non desiderava più coprire le perdite dovute al terrorismo e alla guerra. In questo caso, come al solito, il governo federale degli Stati Uniti ha risposto estendendo la copertura come obbligazione federale nel breve e medio termine.
Il Terrorism Risk Insurance Act (TRIA) del 2002 ha creato un indennizzo assicurativo federale per le perdite e le richieste relative al terrorismo, coprendo una grande parte delle perdite per terrorismo sopra le franchigie stabilite – un atto che è stato rinnovato più volte, compreso durante l’amministrazione Trump.
Sviluppo di vaccini
Proprio come lo sviluppo e la diffusione dei vaccini hanno iniziato ad avere un impatto diffuso sulla salute globale negli anni ’70 e ’80, una piaga di cause legali contro i produttori ha aumentato notevolmente i costi di responsabilità per i produttori.
Per evitare una crisi sanitaria pubblica, il Congresso ha creato il National Childhood Vaccine Injury Act, dirottando le richieste assicurative verso un tribunale dei vaccini dedicato, e proteggendo i produttori dalla maggior parte della responsabilità, a condizione che gli standard di sicurezza fossero rispettati, consentendo l’innovazione di continuare mentre i pazienti venivano compensati da un pool governativo.
L’approccio è stato successivamente confermato dalla Corte Suprema e ampliato durante la pandemia di COVID-19 sotto il PREP Act, che ha rinunciato alla responsabilità dei produttori per contromisure approvate.
È l’AI un caso diverso?
Così, il Congresso è intervenuto ripetutamente per rompere gli ostacoli all’innovazione quando le compagnie assicuratrici si sono tirate indietro.
Tuttavia, sebbene sia difficile sostenere che i rischi dell’AI superino quelli dei sistemi nucleari, i gruppi assicurativi sostengono che l’intelligenza artificiale generativa introduce rischi sistemici, dove le conseguenze avverse sono potenzialmente ‘native’ al funzionamento normale di un sistema, piuttosto che il risultato di una violazione, errore umano, attacco o altri tipi di incidente o disavventura più familiari.
Il pioniere dell’AI e vincitore del premio Turing Yoshua Bengio ha affermato all’inizio di novembre che le società di intelligenza artificiale dovrebbero essere obbligate per legge ad avere assicurazione di responsabilità, per coprire ‘rischi esistenziali’.
Tuttavia, la storia suggerisce che costringere le società di AI a assicurarsi, privi di aiuto governativo, non è il percorso probabile in avanti. Sebbene il CEO di OpenAI Sam Altman abbia recentemente ritirato una proposta secondo cui l’AI dovrebbe ricevere un indennizzo governativo di stile bancario se necessario, la tendenza dell’attuale amministrazione degli Stati Uniti indica che non lascerà il destino dell’AI al mercato aperto da solo.
Misure possibili
Un possibile modo in avanti è un limite di responsabilità federale – una revisione del Price-Anderson Act del 1957, nonché del Vaccine Act, nella forma di un ‘AI Indemnity Act’ che limita la responsabilità delle società per determinati danni legati all’AI.
Insieme a un fondo di compensazione federale per lesioni legate all’AI, simile al precedente fondo per lesioni da vaccini, questo approccio potrebbe proteggere le società da scenari di causa legale ‘peggiori’, molto come l’industria dei vaccini e nucleare era stata protetta in decenni precedenti.
In alternativa, il modello TRIA potrebbe essere adattato per questo scopo, nella forma di un indennizzo assicurativo governativo per l’AI. Ciò costringerebbe le compagnie assicuratrici a offrire copertura di responsabilità per l’AI, ma il governo federale concorderebbe di pagare, ad esempio, l’80-90% di eventuali perdite sopra una certa soglia.
Forse l’opzione meno attraente – in parte perché potrebbe ispirare critiche di ‘politica socialista’ in certi rami del governo e dell’elettorato – sarebbe assicurazione o indennizzo federale diretto, in cui il governo è l’assicuratore diretto.
Questo livello di coinvolgimento statale è solitamente riservato a periodi limitati nell’evoluzione di settori critici (come l’industria nucleare), o per scenari di gestione in tempo di guerra.
Sulla base del comportamento recente, sembra probabile che l’amministrazione degli Stati Uniti spinga per override regolamentari a livello statale, per impedire che gli stati individuali stabiliscano leggi che potrebbero creare scenari assicurativi unici a livello statale, minacciando un’iniziativa federale più ampia.
Conclusione
Coloro che si oppongono alla possibilità che l’AI ottenga lo stesso status di ‘salvataggio’ delle banche, non sono probabilmente disposti ad abbracciare soluzioni fortemente sostenute dal governo per gli enigmi assicurativi intorno all’AI.
Tuttavia, è chiaro che l’attuale amministrazione degli Stati Uniti considera l’AI come ‘infrastruttura essenziale’, nonostante la sua crescente tendenza a errare, o a non soddisfare le aspettative.
Si potrebbe sostenere che un’ampia partecipazione statale nell’assicurazione dell’AI è equivalente a un ‘pre-salvataggio’ – una vendita difficile in un periodo in cui l’eccitazione del mercato e la frenesia degli investitori sono oscurate dalla crescente paura di una bolla, e da un pubblico che è contemporaneamente spaventato e affascinato riguardo all’intelligenza artificiale generativa.
Pubblicato per la prima volta lunedì, 24 novembre 2025












