Connect with us

L’IA nécessitera-t-elle le même type d’assurance socialisée que l’énergie nucléaire ?

Angle d’Anderson

L’IA nécessitera-t-elle le même type d’assurance socialisée que l’énergie nucléaire ?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

Les États-Unis sont souvent intervenus dans les domaines technologiques majeurs lorsque les assureurs ont été effrayés, et cela semble susceptible de se reproduire avec l’IA ; mais les risques sont-ils différents cette fois-ci ?

 

Feature L’administration actuelle des États-Unis a répété à plusieurs reprises son engagement à garantir que les libertés laissez faire dont jouit la Chine en matière de développement de systèmes d’IA soient mises en miroir aux États-Unis. Puisque l’Amérique prend actuellement une position exécutive forte et exerce son influence avec une main très lourde, les événements récents suggèrent que ses politiques en matière d’IA pourraient être reprises dans la législation future des pays qui dépendent de bonnes relations avec les États-Unis.

Il sera donc intéressant de voir comment les États-Unis répondent à la demande très médiatisée adressée au Congrès par les principales compagnies d’assurance, qui demandent à être autorisées à proposer des polices qui excluent la couverture des responsabilités liées aux systèmes d’IA tels que les chatbots et l’IA agente.

Selon le rapport de la FT mentionné ci-dessus, les groupes d’assurance AIG, Great American et WR Berkley sont parmi les nombreuses entreprises qui demandent de telles exclusions.

La FT note que WR Berkley a demandé une exclusion qui interdirait les réclamations impliquant ‘toute utilisation réelle ou alléguée’ de l’IA, ou tout service ou produit qui ‘intègre’ l’IA.

On ne peut pas poursuivre le chien

C’était un développement prévisible : au même moment où l’administration américaine cherche à supprimer les obstacles bureaucratiques de la culture de développement de l’IA américaine, afin qu’elle puisse concurrencer sur un pied d’égalité avec la Chine, le fait que les systèmes d’IA éminents sont rarement formés sur des matériaux dont les droits sont clairs est à l’origine d’une augmentation des poursuites judiciaires de la part de joueurs influents tels que Disney et Universal.

Le plan d’action américain pour l’IA de 2025 (lié ci-dessus) mentionne très peu les détenteurs de droits d’auteur ; et la détermination apparente du pays à imposer une politique de laissez-faire aux États dissidents, à la chinoise, semble se refléter dans sa détermination à forcer une politique de laissez-faire aux États dissidents.

Cependant, les préoccupations exposées dans le rapport de la FT peuvent aller au-delà des problèmes de droits d’auteur, dans le cas de systèmes d’IA qui ont un contrôle agente de l’infrastructure, ou d’autres systèmes fondamentaux, tels que les mécanismes du marché boursier.

La justice américaine a largement déterminé que l’IA sera tenue responsable de ses erreurs, avec ses propriétaires responsables de ses mésaventures – tout comme un propriétaire de chien sera responsable de tout dommage causé par son chien. C’est une perspective sinistre pour les compagnies d’assurance, qui – parmi d’autres problèmes – s’inquiètent de la capacité de l’IA générative à halluciner de manière potentiellement préjudiciable.

Construction assurée

Cependant, cette montée prévisible de plaintes du secteur des assurances a un précédent historique considérable dans des domaines tels que l’industrie nucléaire, l’espace et l’aviation, ainsi que le développement de vaccins, entre autres – des circonstances où les États-Unis ont déterminé que les assurances et la couverture gouvernementales étaient essentielles pour les nouvelles technologies importantes, afin de ne pas céder le progrès à des pays (tels que l’ancienne Union soviétique ou la France) où l’assurance des infrastructures était beaucoup plus courante.

Nucléaire

Par exemple, en 1957, le Congrès a limité la responsabilité de l’industrie nucléaire avec la loi Price-Anderson, car il était devenu évident que sans filet de sécurité gouvernemental, les assureurs privés ne soutiendraient jamais l’énergie atomique.

La loi a limité le montant pour lequel les services publics et les fabricants de réacteurs pouvaient être poursuivis, et a mis en place un mécanisme de paiement pour couvrir les accidents. Elle a depuis été renouvelée à plusieurs reprises, la dernière fois avec une extension jusqu’en 2065, dans le projet de loi de dépenses de cette année.

Aérospatiale

En outre, le gouvernement américain protège les sociétés de lancement spatial commercial contre la responsabilité catastrophique en couvrant les dommages excédant ce que les assureurs privés souscrivent. En vertu de la loi sur les lancements spatiaux commerciaux, les fournisseurs de lancement sont obligés de souscrire une quantité fixe d’assurance, avec une indemnisation fédérale qui intervient au-delà de ce montant, actuellement plafonné à 2,7 milliards de dollars.

Ce filet de sécurité secondaire, jamais invoqué, permet aux sociétés telles que SpaceX et Blue Origin de développer des programmes spatiaux sans être handicapées par la menace d’une défaillance non assurable.

Terrorisme

Il n’est pas surprenant que, après les événements du 11 septembre, l’industrie de l’assurance, qui avait précédemment couvert ces risques dans le cadre de polices générales, n’ait plus souhaité couvrir les pertes dues au terrorisme et à la guerre. Dans ce cas, comme d’habitude, le gouvernement fédéral américain a répondu en étendant la couverture en tant qu’obligation fédérale à court et moyen terme.

La loi sur l’assurance contre le risque de terrorisme (TRIA) de 2002 a créé un filet de sécurité d’assurance fédéral pour les pertes et les réclamations dues au terrorisme, couvrant une grande partie des pertes dues au terrorisme au-delà des franchises indiquées – une loi qui a été renouvelée à plusieurs reprises, y compris sous l’administration Trump.

Développement de vaccins

Juste au moment où le développement et la diffusion de vaccins commençaient à avoir un effet important sur la santé mondiale dans les années 1970 et 1980, une épidémie de poursuites judiciaires contre les fabricants a augmenté considérablement les coûts de responsabilité pour les fabricants.

Pour éviter une crise de santé publique, le Congrès a créé la loi nationale sur les blessures liées aux vaccins de l’enfance, détournant les réclamations d’assurance vers un tribunal des vaccins dédié, et protégeant les fabricants de la majorité de la responsabilité, tant que les normes de sécurité étaient respectées, permettant ainsi l’innovation de continuer tout en indemnisant les patients à partir d’un fonds gouvernemental.

L’approche a été ultérieurement confirmée par la Cour suprême et élargie pendant la pandémie de COVID-19 en vertu de la loi PREP, qui a renoncé à la responsabilité des fabricants pour les contre-mesures approuvées.

L’IA est-elle un cas différent ?

Ainsi, le Congrès est intervenu à plusieurs reprises pour briser les goulets d’étranglement de l’innovation lorsque les assureurs ont hésité à souscrire des secteurs à risque public.

Cependant, même si il est difficile de prétendre que les risques de l’IA dépassent ceux des systèmes nucléaires, les groupes d’assurance font valoir que l’IA générative introduit des risques systémiques, où les conséquences négatives sont potentiellement ‘native’ au fonctionnement normal d’un système, plutôt qu’une conséquence d’une violation, d’une erreur humaine, d’une attaque ou d’autres types de hasard ou de mésaventure.

Le pionnier de l’IA et lauréat du prix Turing Yoshua Bengio a déclaré début novembre que les entreprises d’IA devraient être légalement obligées de souscrire une assurance de responsabilité, pour couvrir les ‘risques existentiels’.

Cependant, l’histoire suggère que forcer les entreprises d’IA à s’assurer elles-mêmes, sans aide gouvernementale, n’est pas le chemin le plus probable à suivre. Même si le PDG d’OpenAI, Sam Altman, a récemment reculé sur une suggestion selon laquelle l’IA devrait recevoir des filets de sécurité gouvernementaux de style bancaire au besoin, la tendance de l’administration actuelle des États-Unis indique qu’elle n’abandonnera pas le sort de l’IA au marché ouvert seul.

Mesures possibles

Une voie possible à suivre est un plafond de responsabilité fédéral – une révision de la loi Price-Anderson de 1957, ainsi que de la loi sur les vaccins, sous la forme d’un ‘acte d’indemnisation de l’IA’ limitant la responsabilité des entreprises pour certains préjudices liés à l’IA.

Conjointement avec un fonds fédéral de compensation pour les blessures liées à l’IA, similaire au fonds de blessures liées aux vaccins, cette approche pourrait protéger les entreprises contre des scénarios de poursuites ‘pire cas’ similaires à la manière dont les industries des vaccins et nucléaires avaient été protégées dans les décennies précédentes.

Alternativement, le modèle TRIA pourrait être adapté à cette fin, sous la forme d’un filet de sécurité d’assurance gouvernemental pour l’IA. Cela obligerait les assureurs à proposer une assurance de responsabilité pour l’IA, mais le gouvernement fédéral s’engagerait à payer, par exemple, 80-90 % de toute perte supérieure à un certain seuil.

Peut-être que l’option la moins attrayante – en partie parce qu’elle pourrait inspirer des critiques de politique ‘socialiste’ dans certaines branches du gouvernement et de l’électorat – serait une assurance ou indemnisation fédérale directe, dans laquelle le gouvernement est l’assureur direct.

Ce niveau d’implication de l’État est généralement réservé à des périodes limitées dans l’évolution des industries critiques (telles que l’industrie nucléaire), ou à des scénarios de gestion en temps de guerre.

Sur la base de comportement récent, il semble probable que l’administration américaine fera pression pour des annulations réglementaires au niveau des États, afin d’empêcher les États individuels d’établir des lois qui pourraient créer des scénarios d’assurance uniques au niveau de chaque État, sapant ainsi une initiative fédérale plus large.

Conclusion

Ceux qui s’opposent à la possibilité pour l’IA d’obtenir le même statut de ‘sauvetage’ que les banques ne sont pas susceptibles de soutenir des solutions fortement soutenues par le gouvernement aux problèmes d’assurance de l’IA.

Cependant, il est clair que l’administration américaine actuelle considère l’IA comme des ‘infrastructures essentielles’, malgré sa tendance croissante à se tromper, ou à ne pas répondre aux attentes.

On pourrait soutenir que l’implication étatique extensive dans l’assurance de l’IA est assimilable à un ‘pré-sauvetage’ – une vente difficile dans une période où l’excitation du marché et la frénésie des investisseurs sont assombries par la peur d’une bulle, et par un public qui est à la fois effrayé et enchanté en ce qui concerne l’IA générative.

 

Publié pour la première fois lundi 24 novembre 2025

Écrivain sur l'apprentissage automatique, spécialiste de domaine en synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.