Des leaders d'opinion
Trouver l'équilibre : approches mondiales pour atténuer les risques liés à l'IA

Ce n'est un secret pour personne : ces dernières années, les technologies modernes repoussent les limites de l'éthique dans des cadres juridiques existants qui ne leur étaient pas adaptés, créant ainsi un véritable champ de mines juridique et réglementaire. Pour tenter de contrer ces effets, les régulateurs adoptent des approches divergentes selon les pays et les régions, ce qui exacerbe les tensions mondiales lorsqu'aucun accord ne peut être trouvé.
Ces différences réglementaires ont été mises en évidence lors d’un récent Sommet d’action sur l’IA à Paris. déclaration finale L'événement s'est concentré sur les questions d'inclusion et d'ouverture dans le développement de l'IA. Il est intéressant de noter qu'il n'a abordé que de manière générale la sécurité et la fiabilité, sans mettre l'accent sur les risques spécifiques liés à l'IA, tels que les menaces pour la sécurité. Rédigé par 60 pays, le Royaume-Uni et les États-Unis étaient visiblement absents des signatures de la déclaration, ce qui montre à quel point il existe peu de consensus à l'heure actuelle entre les pays clés.
S'attaquer aux risques liés à l'IA à l'échelle mondiale
Le développement et le déploiement de l'IA sont réglementés différemment selon les pays. Néanmoins, la plupart se situent entre les deux positions extrêmes : celle des États-Unis et celle de l'Union européenne (UE).
La méthode américaine : d’abord innover, puis réglementer
Aux États-Unis, il n'existe pas de loi fédérale réglementant spécifiquement l'IA ; celle-ci repose plutôt sur des solutions fondées sur le marché et des lignes directrices volontaires. Cependant, il existe des textes législatifs clés pour l'IA, notamment le National AI Initiative Act, qui vise à coordonner la recherche fédérale en IA, le Federal Aviation Administration Reauthorisation Act et le cadre volontaire de gestion des risques du National Institute of Standards and Technology (NIST).
Le paysage réglementaire américain demeure fluide et sujet à d'importantes fluctuations politiques. Par exemple, en octobre 2023, le président Biden a publié une Décret exécutif sur l'intelligence artificielle sûre, sécurisée et digne de confiance, en mettant en place des normes pour les infrastructures critiques, en renforçant la cybersécurité basée sur l'IA et en réglementant les projets d'IA financés par le gouvernement fédéral. Cependant, en janvier 2025, le président Trump a révoqué ce décret exécutif, dans un virage qui s’éloigne de la réglementation et privilégie l’innovation.
L'approche américaine a ses détracteurs. Ils soulignent que «nature fragmentée« conduit à un réseau complexe de règles qui «manque de normes applicables, " et a "lacunes dans la protection de la vie privée.” Cependant, la position dans son ensemble est en constante évolution : en 2024, les législateurs de l’État ont introduit près de 700 nouvelles lois sur l'IA et il y a eu plusieurs audiences L'IA dans la gouvernance, ainsi que l'IA et la propriété intellectuelle, sont au cœur des préoccupations. Bien qu'il soit évident que le gouvernement américain n'hésite pas à réglementer, il cherche clairement des moyens de la mettre en œuvre sans compromettre l'innovation.
La voie de l'UE : privilégier la prévention
L'UE a choisi une approche différente. En août 2024, le Parlement européen et le Conseil ont présenté le Loi sur l'intelligence artificielle (loi sur l'IA), largement considérée comme la réglementation la plus complète en matière d'IA à ce jour. En adoptant une approche fondée sur les risques, la loi impose des règles strictes aux systèmes d'IA hautement sensibles, par exemple ceux utilisés dans les soins de santé et les infrastructures critiques. Les applications à faible risque ne font l'objet que d'une surveillance minimale, tandis que certaines applications, comme les systèmes de notation sociale gérés par l'État, sont totalement interdites.
Dans l'UE, la conformité est obligatoire non seulement à l'intérieur de ses frontières, mais aussi pour tout fournisseur, distributeur ou utilisateur de systèmes d'IA opérant dans l'UE ou proposant des solutions d'IA sur son marché, même si le système a été développé à l'extérieur. Il est probable que cela posera des difficultés aux fournisseurs de produits intégrés américains et non européens dans leur adaptation.
Les critiques de l’approche de l’UE incluent sa prétendue échec à établir un étalon-or pour les droits de l'homme. Complexité excessive a également été noté, ainsi qu'un manque de clarté. Les critiques s'inquiètent de la exigences techniques très strictes, car elles interviennent à un moment où l’UE cherche à renforcer sa compétitivité.
Trouver un terrain d'entente réglementaire
Parallèlement, le Royaume-Uni a adopté un cadre « léger », situé entre celui de l'UE et celui des États-Unis, et fondé sur des valeurs fondamentales telles que la sécurité, l'équité et la transparence. Les régulateurs existants, comme le Bureau du Commissaire à l'information, sont habilités à mettre en œuvre ces principes dans leurs domaines respectifs.
Le gouvernement britannique a publié un Plan d'action pour les opportunités en matière d'IA, qui présente des mesures visant à investir dans les fondations de l'IA, à mettre en œuvre l'adoption intersectorielle de l'IA et à favoriser les systèmes d'IA « maison ». En novembre 2023, le Royaume-Uni a fondé le Institut de sécurité de l'IA (AISI), issue du Frontier AI Taskforce. L'AISI a été créée pour évaluer la sécurité des modèles d'IA avancés, en collaboration avec les principaux développeurs pour y parvenir grâce à des tests de sécurité.
Toutefois, les critiques à l’encontre de l’approche du Royaume-Uni en matière de réglementation de l’IA incluent : capacités d'application limitées et manque de coordination entre les législations sectorielles. Les critiques ont également souligné l'absence d'autorité de régulation centrale.
À l'instar du Royaume-Uni, d'autres grands pays ont également trouvé leur place sur le spectre États-Unis-UE. Par exemple, le Canada a adopté une approche fondée sur les risques avec le projet de loi sur l'IA et les données (AIDA), qui vise à trouver un équilibre entre innovation, sécurité et considérations éthiques. Le Japon a adopté une approche de l'IA centrée sur l'humain en publiant des lignes directrices favorisant un développement fiable. Parallèlement, en Chine, la réglementation de l'IA est étroitement contrôlée par l'État, de récentes lois exigeant que les modèles d'IA générative soient soumis à des évaluations de sécurité et soient conformes aux valeurs socialistes. À l'instar du Royaume-Uni, l'Australie a publié un cadre éthique pour l'IA et envisage de mettre à jour sa législation sur la protection de la vie privée afin de relever les nouveaux défis posés par l'innovation en matière d'IA.
Comment établir une coopération internationale ?
À mesure que l'IA évolue, les différences entre les approches réglementaires deviennent de plus en plus évidentes. Chaque approche adoptée en matière de confidentialité des données, de protection des droits d'auteur et d'autres aspects complique l'obtention d'un consensus mondial cohérent sur les principaux risques liés à l'IA. Dans ce contexte, la coopération internationale est essentielle pour établir des normes de référence qui traitent des principaux risques sans freiner l'innovation.
La réponse à la coopération internationale pourrait résider dans des organisations mondiales comme l'Organisation de coopération et de développement économiques (OCDE), les Nations Unies et plusieurs autres, qui travaillent actuellement à l'élaboration de normes internationales et de lignes directrices éthiques pour l'IA. La voie à suivre ne sera pas simple, car elle exige que tous les acteurs du secteur trouvent un terrain d'entente. Si l'on considère que l'innovation évolue à la vitesse de la lumière, il est temps de discuter et de se mettre d'accord.