Règlement
Le nouveau code de conduite de l'UE sur l'IA devrait avoir un impact sur la réglementation

La Commission européenne a récemment introduit une Le code de conduite Cela pourrait changer la manière dont fonctionnent les entreprises d’IA. Il ne s’agit pas simplement d’un nouvel ensemble de directives, mais plutôt d’une refonte complète de la surveillance de l’IA que même les plus grands acteurs ne peuvent ignorer.
Quelle est la différence ? Pour la première fois, nous voyons des règles concrètes qui pourraient obliger des entreprises comme OpenAI et Google à ouvrir leurs modèles à des tests externes, ce qui constituerait un changement fondamental dans la manière dont les systèmes d’IA pourraient être développés et déployés en Europe.
Les nouveaux acteurs du contrĂ´le de l'IA
La Commission européenne a créé un cadre qui cible spécifiquement ce qu’elle appelle les systèmes d’IA à « risque systémique ». Il s’agit de modèles entraînés avec plus de 10^25 FLOP de puissance de calcul – un seuil que GPT-4 a déjà dépassé.
Les entreprises devront communiquer leurs plans de formation à l’IA deux semaines avant même de commencer.
Au cœur de ce nouveau système se trouvent deux documents clés : le cadre de sécurité et de sûreté (SSF) et le rapport de sécurité et de sûreté (SSR). Le SSF est une feuille de route complète pour la gestion des risques liés à l'IA, couvrant tous les aspects, de l'identification initiale des risques aux mesures de sécurité en cours. Le SSR, quant à lui, sert d'outil de documentation détaillé pour chaque modèle individuel.
Tests externes pour les modèles d'IA à haut risque
La Commission exige des tests externes pour les modèles d'IA à haut risque. Il ne s'agit pas d'un contrôle qualité interne classique : des experts indépendants et l'Office européen de l'IA examinent ces systèmes.
Les implications sont considérables. Si vous êtes OpenAI ou Google, vous devrez soudainement confier l'examen de vos systèmes à des experts externes. Le projet stipule explicitement que les entreprises doivent « s'assurer de la réalisation de tests par des experts indépendants suffisants avant le déploiement ». Il s'agit d'un changement radical par rapport à l'approche actuelle d'autorégulation.
La question se pose : qui est qualifié pour tester ces systèmes incroyablement complexes ? L’Office européen de l’IA s’aventure sur un terrain inexploré. Il aura besoin d’experts capables de comprendre et d’évaluer les nouvelles technologies d’IA tout en préservant la plus stricte confidentialité de leurs découvertes.
Cette exigence de tests externes pourrait devenir obligatoire dans toute l'UE par un acte d'exécution de la Commission. Les entreprises peuvent tenter de démontrer leur conformité par des « moyens alternatifs adéquats », mais personne ne sait vraiment ce que cela signifie concrètement.
La protection des droits d'auteur devient une affaire sérieuse
L’UE prend également au sérieux la question du droit d’auteur. Elle oblige les fournisseurs d’intelligence artificielle à élaborer des politiques claires sur la manière dont ils gèrent la propriété intellectuelle.
La Commission soutient la norme robots.txt – un simple fichier indiquant aux robots d'indexation où ils peuvent ou non aller. Si un site web refuse d'accéder à son contenu via robots.txt, les entreprises d'IA ne peuvent pas l'ignorer et s'entraîner sur ce contenu. Les moteurs de recherche ne peuvent pas pénaliser les sites qui utilisent ces exclusions. Il s'agit d'un coup de force qui redonne le contrôle aux créateurs de contenu.
Les entreprises d'IA devront également éviter activement les sites web de piratage lorsqu'elles collectent des données d'entraînement. L'UE leur recommande même de consulter sa « Liste de surveillance de la contrefaçon et du piratage » comme point de départ.
Ce que cela signifie pour l'avenir
L’UE crée un tout nouveau terrain de jeu pour le développement de l’IA. Ces exigences vont affecter tous les aspects, de la manière dont les entreprises planifient leurs projets d’IA à la manière dont elles collectent leurs données de formation.
Toutes les grandes entreprises d'IA sont désormais confrontées à un choix. Elles doivent soit :
- Ouvrir leurs modèles aux tests externes
- Découvrez à quoi ressemblent ces mystérieux « moyens alternatifs » de conformité
- Ou potentiellement limiter leurs opérations sur le marché de l’UE
Le calendrier est également important. Il ne s’agit pas d’une réglementation qui se produirait dans un futur lointain : la Commission avance rapidement. Elle a réussi à réunir environ 1,000 XNUMX parties prenantes réparties en quatre groupes de travail, qui ont tous défini les détails du fonctionnement de cette réglementation.
Pour les entreprises qui développent des systèmes d’IA, l’époque où il fallait « agir vite et déterminer les règles plus tard » pourrait toucher à sa fin. Elles devront commencer à réfléchir à ces exigences dès maintenant, et non pas lorsqu’elles deviendront obligatoires. Cela signifie :
- Planification des audits externes dans leur calendrier de développement
- Mise en place de systèmes robustes de conformité aux droits d'auteur
- Construire des cadres de documentation conformes aux exigences de l'UE
L'impact réel de ces réglementations se fera sentir au cours des prochains mois. Si certaines entreprises chercheront des solutions de contournement, d'autres intégreront ces exigences à leurs processus de développement. Le cadre de l'UE pourrait influencer le développement de l'IA à l'échelle mondiale, surtout si d'autres régions adoptent des mesures de surveillance similaires. Alors que ces règles passent de l'état d'ébauche à celui de mise en œuvre, le secteur de l'IA fait face à son plus grand changement réglementaire à ce jour.










