Intelligence artificielle
OpenAI, Anthropic, et Google exigent une action alors que la tête de l’IA américaine diminue

Les principales entreprises américaines d’intelligence artificielle, OpenAI, Anthropic et Google, ont averti le gouvernement fédéral que la tête technologique de l’Amérique dans l’IA est “non large et se rétrécit” alors que les modèles chinois comme Deepseek R1 démontrent des capacités croissantes, selon des documents soumis au gouvernement américain en réponse à une demande d’informations sur l’élaboration d’un plan d’action pour l’IA.
Ces soumissions récentes de mars 2025 mettent en évidence des préoccupations urgentes concernant les risques pour la sécurité nationale, la concurrence économique et la nécessité de cadres réglementaires stratégiques pour maintenir la tête de l’Amérique dans le développement de l’IA face à la concurrence mondiale croissante et au progrès de la Chine dans le domaine. Anthropic et Google ont soumis leurs réponses le 6 mars 2025, tandis que la soumission d’OpenAI a suivi le 13 mars 2025.
Le défi de la Chine et Deepseek R1
L’émergence du modèle Deepseek R1 de la Chine a déclenché des préoccupations significatives parmi les principaux développeurs américains d’IA, qui ne le considèrent pas comme supérieur à la technologie américaine, mais comme une preuve convaincante que l’écart technologique se rétrécit rapidement.
OpenAI avertit explicitement que “Deepseek montre que notre avance n’est pas large et se rétrécit”, en caractérisant le modèle comme “subventionné par l’État, contrôlé par l’État et librement disponible” – une combinaison qu’ils considèrent comme particulièrement menaçante pour les intérêts américains et le développement mondial de l’IA.
Selon l’analyse d’OpenAI, Deepseek pose des risques similaires à ceux associés au géant des télécommunications chinois Huawei. “Comme pour Huawei, il existe un risque important à construire sur les modèles DeepSeek dans les infrastructures critiques et les autres cas d’utilisation à haut risque, étant donné le potentiel que DeepSeek pourrait être contraint par le PCC de manipuler ses modèles pour causer des dommages”, a déclaré OpenAI dans sa soumission.
La société a également soulevé des préoccupations concernant la confidentialité et la sécurité des données, notant que les réglementations chinoises pourraient exiger que Deepseek partage les données des utilisateurs avec le gouvernement. Cela pourrait permettre au Parti communiste chinois de développer des systèmes d’IA plus avancés alignés sur les intérêts de l’État tout en compromettant la confidentialité individuelle.
L’évaluation d’Anthropic se concentre fortement sur les implications de biosécurité. Leur évaluation a révélé que Deepseek R1 “a répondu à la plupart des questions de weaponisation biologique, même lorsqu’elles étaient formulées avec une intention clairement malveillante”. Cette volonté de fournir des informations potentiellement dangereuses contraste avec les mesures de sécurité mises en œuvre par les principaux modèles américains.
“Alors que l’Amérique maintient une avance sur l’IA aujourd’hui, DeepSeek montre que notre avance n’est pas large et se rétrécit”, a échoé Anthropic dans sa propre soumission, renforçant le ton urgent des avertissements.
Les deux sociétés encadrent la concurrence en termes idéologiques, OpenAI décrivant un concours entre l’IA “démocratique” américaine et l’IA “autocratique, autoritaire” chinoise. Ils suggèrent que la volonté de Deepseek de générer des instructions pour des “activités illicites et nuisibles telles que la fraude d’identité et le vol de propriété intellectuelle” reflète des approches éthiques fondamentalement différentes du développement de l’IA entre les deux nations.
L’émergence de Deepseek R1 est sans aucun doute un jalon important dans la course mondiale à l’IA, démontrant les capacités croissantes de la Chine malgré les contrôles à l’exportation américains sur les semi-conducteurs avancés et mettant en évidence l’urgence d’une action gouvernementale coordonnée pour maintenir la tête de l’Amérique dans le domaine.
Implications de sécurité nationale
Les soumissions des trois sociétés mettent l’accent sur des préoccupations de sécurité nationale importantes découlant des modèles d’IA avancés, bien qu’elles abordent ces risques sous des angles différents.
Les avertissements d’OpenAI se concentrent fortement sur le potentiel d’influence du PCC sur les modèles d’IA chinois comme Deepseek. La société souligne que les réglementations chinoises pourraient contraindre Deepseek à “compromettre les infrastructures critiques et les applications sensibles” et exiger que les données des utilisateurs soient partagées avec le gouvernement. Ce partage de données pourrait permettre le développement de systèmes d’IA plus sophistiqués alignés sur les intérêts de l’État chinois, créant à la fois des problèmes de confidentialité immédiats et des menaces de sécurité à long terme.
Les préoccupations d’Anthropic sont centrées sur les risques de biosécurité posés par les capacités d’IA avancées, quelle que soit leur pays d’origine. Dans une révélation particulièrement alarmante, Anthropic a révélé que “notre système le plus récent, Claude 3.7 Sonnet, démontre des améliorations inquiétantes dans sa capacité à soutenir les aspects du développement d’armes biologiques”. Cette admission candide souligne la nature à double usage des systèmes d’IA avancés et la nécessité de solides garanties.
Anthropic a également identifié ce qu’ils décrivent comme un “vide réglementaire dans les restrictions de puces américaines” lié aux puces H20 de Nvidia. Bien que ces puces répondent aux exigences de performances réduites pour l’exportation chinoise, elles “excellent dans la génération de texte (‘échantillonnage’) – un composant fondamental des méthodologies d’apprentissage par renforcement avancées critiques pour les progrès actuels des modèles de pointe”. Anthropic a exigé “une action réglementaire immédiate” pour remédier à cette vulnérabilité potentielle dans les cadres actuels de contrôle des exportations.
Google, tout en reconnaissant les risques de sécurité de l’IA, plaide pour une approche plus équilibrée en matière de contrôles à l’exportation. La société met en garde contre le fait que les règles actuelles d’exportation de l’IA “pourraient compromettre les objectifs de concurrence économique… en imposant des fardeaux disproportionnés aux fournisseurs de services cloud américains”. Au lieu de cela, Google recommande “des contrôles à l’exportation équilibrés qui protègent la sécurité nationale tout en permettant les exportations américaines et les opérations commerciales mondiales”.
Les trois sociétés soulignent la nécessité d’une évaluation gouvernementale renforcée. Anthropic appelle spécifiquement à “renforcer la capacité du gouvernement fédéral à tester et à évaluer les modèles d’IA puissants pour les capacités de sécurité nationale” afin de mieux comprendre les utilisations potentielles par les adversaires. Cela impliquerait de préserver et de renforcer l’Institut de sécurité de l’IA, de diriger le NIST pour développer des évaluations de sécurité et d’assembler des équipes d’experts interdisciplinaires.
Tableau de comparaison : OpenAI, Anthropic, Google
| Domaine de concentration | OpenAI | Anthropic | |
| Préoccupation principale | Menaces politiques et économiques de l’IA contrôlée par l’État | Risques de biosécurité des modèles avancés | Maintenir l’innovation tout en équilibrant la sécurité |
| Vue sur Deepseek R1 | “Subventionné par l’État, contrôlé par l’État et librement disponible” avec des risques similaires à ceux de Huawei | Prêt à répondre aux “questions de weaponisation biologique” avec une intention malveillante | Se concentre moins sur Deepseek, plus sur la concurrence plus large |
| Priorité de sécurité nationale | Influence du PCC et risques de sécurité des données | Menaces de biosécurité et failles dans les exportations de puces | Contrôles à l’exportation équilibrés qui ne nuisent pas aux fournisseurs américains |
| Approche réglementaire | Partenariat volontaire avec le gouvernement fédéral ; point de contact unique | Capacité d’évaluation gouvernementale renforcée ; contrôles à l’exportation durcis | “Cadre fédéral pro-innovation pour l’IA” ; gouvernance et normes sectorielles |
| Concentration sur les infrastructures | Adoption gouvernementale d’outils d’IA de pointe | Expansion énergétique (50 GW d’ici 2027) pour le développement de l’IA | Action coordonnée sur l’énergie, réforme des autorisations |
| Recommandation distinctive | Cadre de contrôle à l’exportation étagé promouvant l'”IA démocratique” | Action réglementaire immédiate sur les puces H20 de Nvidia exportées vers la Chine | Accès de l’industrie aux données ouvertes pour un apprentissage équitable |
Stratégies de concurrence économique
Les exigences en matière d’infrastructures, en particulier les besoins énergétiques, émergent comme un facteur critique pour maintenir la tête de l’Amérique dans l’IA. Anthropic a averti que “d’ici 2027, la formation d’un seul modèle d’IA de pointe nécessitera des grappes de calcul en réseau consommant environ cinq gigawatts d’électricité”. Ils ont proposé une cible nationale ambitieuse pour construire 50 gigawatts supplémentaires d’électricité dédiés spécifiquement à l’industrie de l’IA d’ici 2027, ainsi que des mesures pour rationaliser les autorisations et accélérer les approbations de lignes de transmission.
OpenAI encadre à nouveau la concurrence comme un concours idéologique entre l'”IA démocratique” et l'”IA autocratique, autoritaire” construite par le PCC. Leur vision pour l'”IA démocratique” met l’accent sur “un marché libre favorisant une concurrence libre et loyale” et “la liberté pour les développeurs et les utilisateurs de travailler avec et de diriger nos outils comme ils le souhaitent”, dans les limites des garde-fous de sécurité appropriés.
Les trois sociétés ont présenté des recommandations détaillées pour maintenir la tête de l’Amérique. Anthropic a souligné l’importance de “renforcer la concurrence économique américaine” et de veiller à ce que “les bénéfices économiques de l’IA soient largement partagés dans la société”. Ils ont plaidé pour “sécuriser et mettre à l’échelle l’approvisionnement énergétique américain” comme condition préalable critique pour maintenir le développement de l’IA aux États-Unis, avertissant que les contraintes énergétiques pourraient forcer les développeurs à l’étranger.
Google a appelé à des mesures décisives pour “stimuler le développement de l’IA américain”, en se concentrant sur trois domaines clés : l’investissement dans l’IA, l’accélération de l’adoption de l’IA par le gouvernement et la promotion d’approches pro-innovation à l’échelle internationale. La société a souligné la nécessité d’une “action coordonnée fédérale, étatique, locale et industrielle sur des politiques telles que la réforme des autorisations et des transmissions pour répondre aux besoins énergétiques croissants” ainsi que des “contrôles à l’exportation équilibrés” et d’un “financement continu pour la recherche et le développement de l’IA fondamentale”.
La soumission de Google a particulièrement mis en évidence la nécessité d’un “cadre fédéral pro-innovation pour l’IA” qui empêcherait un patchwork de réglementations étatiques tout en garantissant l’accès de l’industrie aux données ouvertes pour la formation de modèles. Leur approche met l’accent sur une “gouvernance et des normes sectorielles, axées sur les risques” plutôt que sur une réglementation large.
Recommandations réglementaires
Une approche fédérale unifiée de la réglementation de l’IA est apparue comme un thème constant dans toutes les soumissions. OpenAI a averti contre “l’arbitrage réglementaire créé par les États américains individuels” et a proposé une “approche holistique qui permet un partenariat volontaire entre le gouvernement fédéral et le secteur privé”. Leur cadre prévoit une surveillance du Département du Commerce, potentiellement par le biais d’un Institut de sécurité de l’IA des États-Unis réimaginé, fournissant un point de contact unique pour les sociétés d’IA pour engager avec le gouvernement sur les risques de sécurité.
En ce qui concerne les contrôles à l’exportation, OpenAI a plaidé pour un cadre étagé conçu pour promouvoir l’adoption américaine de l’IA dans les pays alignés sur les valeurs démocratiques tout en restreignant l’accès pour la Chine et ses alliés. Anthropic a également appelé à “durcir les contrôles à l’exportation pour élargir la tête de l’IA américaine” et “améliorer considérablement la sécurité des laboratoires de pointe américains” par une collaboration renforcée avec les agences de renseignement.
Les considérations de droit d’auteur et de propriété intellectuelle figuraient en bonne place dans les recommandations d’OpenAI et de Google. OpenAI a souligné l’importance de maintenir les principes d’utilisation équitable pour permettre aux modèles d’IA d’apprendre à partir de matériel protégé par le droit d’auteur sans compromettre la valeur commerciale des œuvres existantes. Ils ont averti que des règles de droit d’auteur trop restrictives pourraient désavantager les sociétés d’IA américaines par rapport à leurs concurrents chinois. Google a échoé ce point de vue, plaidant pour “des règles de droit d’auteur équilibrées, telles que les exceptions d’utilisation équitable et d’extraction de texte et de données” qu’ils ont décrites comme “essentielles pour permettre aux systèmes d’IA d’apprendre à partir des connaissances antérieures et des données publiques”.
Les trois sociétés ont souligné la nécessité d’une adoption accélérée de la technologie d’IA par le gouvernement. OpenAI a appelé à une “stratégie d’adoption gouvernementale ambitieuse” pour moderniser les processus fédéraux et déployer en toute sécurité les outils d’IA de pointe. Ils ont spécifiquement recommandé de supprimer les obstacles à l’adoption de l’IA, notamment les processus d’agrément obsolètes comme FedRAMP, les autorités de test restrictives et les voies d’approvisionnement inflexibles. Anthropic a également plaidé pour “promouvoir l’approvisionnement rapide en IA à travers le gouvernement fédéral” pour révolutionner les opérations et renforcer la sécurité nationale.
Google a suggéré de “rationaliser les pratiques d’agrément, d’autorisation et d’approvisionnement obsolètes” au sein du gouvernement pour accélérer l’adoption de l’IA. Ils ont souligné l’importance de règles de passation publique efficaces et d’une meilleure interopérabilité dans les solutions cloud gouvernementales pour faciliter l’innovation.
Les soumissions complètes de ces principales sociétés d’IA présentent un message clair : maintenir la tête de l’Amérique dans l’IA nécessite une action fédérale coordonnée sur de multiples fronts – de la développement des infrastructures et des cadres réglementaires à la protection de la sécurité nationale et à la modernisation du gouvernement – en particulier à mesure que la concurrence de la Chine s’intensifie.












