Suivez nous sur

Le nouveau code de conduite de l'UE sur l'IA devrait avoir un impact sur la réglementation

Règlement

Le nouveau code de conduite de l'UE sur l'IA devrait avoir un impact sur la réglementation

mm

La Commission europĂ©enne a rĂ©cemment introduit une Le code de conduite Cela pourrait changer la manière dont fonctionnent les entreprises d’IA. Il ne s’agit pas simplement d’un nouvel ensemble de directives, mais plutĂ´t d’une refonte complète de la surveillance de l’IA que mĂŞme les plus grands acteurs ne peuvent ignorer. 

Quelle est la différence ? Pour la première fois, nous voyons des règles concrètes qui pourraient obliger des entreprises comme OpenAI et Google à ouvrir leurs modèles à des tests externes, ce qui constituerait un changement fondamental dans la manière dont les systèmes d’IA pourraient être développés et déployés en Europe.

Les nouveaux acteurs du contrĂ´le de l'IA

La Commission européenne a créé un cadre qui cible spécifiquement ce qu’elle appelle les systèmes d’IA à « risque systémique ». Il s’agit de modèles entraînés avec plus de 10^25 FLOP de puissance de calcul – un seuil que GPT-4 a déjà dépassé.

Les entreprises devront communiquer leurs plans de formation Ă  l’IA deux semaines avant mĂŞme de commencer. 

Au cœur de ce nouveau système se trouvent deux documents clés : le cadre de sécurité et de sûreté (SSF) et le rapport de sécurité et de sûreté (SSR). Le SSF est une feuille de route complète pour la gestion des risques liés à l'IA, couvrant tous les aspects, de l'identification initiale des risques aux mesures de sécurité en cours. Le SSR, quant à lui, sert d'outil de documentation détaillé pour chaque modèle individuel.

Tests externes pour les modèles d'IA à haut risque

La Commission exige des tests externes pour les modèles d'IA Ă  haut risque. Il ne s'agit pas d'un contrĂ´le qualitĂ© interne classique : des experts indĂ©pendants et l'Office europĂ©en de l'IA examinent ces systèmes.

Les implications sont considĂ©rables. Si vous ĂŞtes OpenAI ou Google, vous devrez soudainement confier l'examen de vos systèmes Ă  des experts externes. Le projet stipule explicitement que les entreprises doivent « s'assurer de la rĂ©alisation de tests par des experts indĂ©pendants suffisants avant le dĂ©ploiement Â». Il s'agit d'un changement radical par rapport Ă  l'approche actuelle d'autorĂ©gulation.

La question se pose : qui est qualifiĂ© pour tester ces systèmes incroyablement complexes ? L’Office europĂ©en de l’IA s’aventure sur un terrain inexplorĂ©. Il aura besoin d’experts capables de comprendre et d’évaluer les nouvelles technologies d’IA tout en prĂ©servant la plus stricte confidentialitĂ© de leurs dĂ©couvertes.

Cette exigence de tests externes pourrait devenir obligatoire dans toute l'UE par un acte d'exĂ©cution de la Commission. Les entreprises peuvent tenter de dĂ©montrer leur conformitĂ© par des « moyens alternatifs adĂ©quats Â», mais personne ne sait vraiment ce que cela signifie concrètement.

La protection des droits d'auteur devient une affaire sérieuse

L’UE prend également au sérieux la question du droit d’auteur. Elle oblige les fournisseurs d’intelligence artificielle à élaborer des politiques claires sur la manière dont ils gèrent la propriété intellectuelle.

La Commission soutient la norme robots.txt – un simple fichier indiquant aux robots d'indexation où ils peuvent ou non aller. Si un site web refuse d'accéder à son contenu via robots.txt, les entreprises d'IA ne peuvent pas l'ignorer et s'entraîner sur ce contenu. Les moteurs de recherche ne peuvent pas pénaliser les sites qui utilisent ces exclusions. Il s'agit d'un coup de force qui redonne le contrôle aux créateurs de contenu.

Les entreprises d'IA devront Ă©galement Ă©viter activement les sites web de piratage lorsqu'elles collectent des donnĂ©es d'entraĂ®nement. L'UE leur recommande mĂŞme de consulter sa « Liste de surveillance de la contrefaçon et du piratage Â» comme point de dĂ©part. 

Ce que cela signifie pour l'avenir

L’UE crée un tout nouveau terrain de jeu pour le développement de l’IA. Ces exigences vont affecter tous les aspects, de la manière dont les entreprises planifient leurs projets d’IA à la manière dont elles collectent leurs données de formation.

Toutes les grandes entreprises d'IA sont désormais confrontées à un choix. Elles doivent soit :

  • Ouvrir leurs modèles aux tests externes
  • DĂ©couvrez Ă  quoi ressemblent ces mystĂ©rieux « moyens alternatifs » de conformitĂ©
  • Ou potentiellement limiter leurs opĂ©rations sur le marchĂ© de l’UE

Le calendrier est également important. Il ne s’agit pas d’une réglementation qui se produirait dans un futur lointain : la Commission avance rapidement. Elle a réussi à réunir environ 1,000 XNUMX parties prenantes réparties en quatre groupes de travail, qui ont tous défini les détails du fonctionnement de cette réglementation.

Pour les entreprises qui développent des systèmes d’IA, l’époque où il fallait « agir vite et déterminer les règles plus tard » pourrait toucher à sa fin. Elles devront commencer à réfléchir à ces exigences dès maintenant, et non pas lorsqu’elles deviendront obligatoires. Cela signifie :

  • Planification des audits externes dans leur calendrier de dĂ©veloppement
  • Mise en place de systèmes robustes de conformitĂ© aux droits d'auteur
  • Construire des cadres de documentation conformes aux exigences de l'UE

L'impact réel de ces réglementations se fera sentir au cours des prochains mois. Si certaines entreprises chercheront des solutions de contournement, d'autres intégreront ces exigences à leurs processus de développement. Le cadre de l'UE pourrait influencer le développement de l'IA à l'échelle mondiale, surtout si d'autres régions adoptent des mesures de surveillance similaires. Alors que ces règles passent de l'état d'ébauche à celui de mise en œuvre, le secteur de l'IA fait face à son plus grand changement réglementaire à ce jour.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.