Suivez nous sur

Les lacunes du projet de loi sur l'intelligence artificielle de l'UE

Règlement

Les lacunes du projet de loi sur l'intelligence artificielle de l'UE

mm

Une nouvelle critique juridique du projet de loi sur l'IA de l'Union européenne formule un large éventail de critiques à l'encontre des réglementations proposées. sorti en avril, concluant qu'une grande partie du document est « cousue ensemble » à partir d'une réglementation des consommateurs des années 1980 à peine applicable ; qu'il promeut en réalité un environnement d'IA déréglementé en Europe, plutôt que de soumettre le secteur à une réglementation cohérente ; et - parmi une série d'autres critiques - que les propositions tracent un futur cadre réglementaire de l'IA qui a « peu de sens et d'impact ».

Intitulée Démystifier le projet de loi sur l'intelligence artificielle de l'UE, le pré-impression est une collaboration entre des chercheurs de l'UCL de Londres et de l'Université Radboud de Nimègue.

Le document s'ajoute à un nombre croissant d'opinions négatives sur la mise en œuvre proposée (plutôt que sur l'intention très admirée) d'un cadre réglementaire d'IA, y compris l'affirmation en Avril L'un des contributeurs au projet de règlement a déclaré que les lignes directrices proposées étaient « tièdes, à courte vue et délibérément vagues », qualifiant le document de la Commission européenne de partisan d'une « fausse éthique ».

Systèmes d'IA manipulatrice

Le nouveau document soutient que les restrictions proposées par la loi sur l'IA sur les « systèmes manipulateurs » sont entravées par une définition vague et même contradictoire du « préjudice », commentant qu'« un cynique pourrait penser que la Commission est plus intéressée par la valeur rhétorique des interdictions que par leur effet pratique ».

L' projet de règlement décrivent deux pratiques interdites putatives :

a) la mise sur le marché, la mise en service ou l'utilisation d'un système d'intelligence artificielle qui déploie des techniques subliminales au-delà de la conscience d'une personne afin de déformer matériellement le comportement d'une personne d'une manière qui cause ou est susceptible de causer à cette personne ou à une autre personne des ou préjudice psychologique ;

(b) la mise sur le marché, la mise en service ou l'utilisation d'un système d'IA qui exploite l'une des vulnérabilités d'un groupe spécifique de personnes en raison de leur âge, d'un handicap physique ou mental, afin de fausser sensiblement le comportement d'une personne se rapportant à ce groupe d'une manière qui cause ou est susceptible de causer à cette personne ou à une autre personne un préjudice physique ou psychologique ;

Les chercheurs soutiennent que ces restrictions ne tiennent pas compte de la capacité des services ou logiciels d'un fournisseur d'IA à atteindre ses propres objectifs, mais seulement du préjudice subi par l'utilisateur final. Ils ajoutent que la définition du préjudice dans le projet se limite fatalement aux utilisateurs individuels, plutôt qu'au préjudice collectif ou sociétal que l'on peut raisonnablement déduire de plusieurs controverses liées à l'IA ces dernières années, comme la débâcle de Cambridge Analytica.

L’article observe que « dans la vie réelle, les dommages peuvent s’accumuler sans qu’un seul événement ne franchisse un seuil de gravité, ce qui rend la preuve difficile ».

Les systèmes d'IA nocifs sont autorisés, mais pas pour la consommation dans l'UE

La loi sur l'IA propose d'interdire aux forces de l'ordre l'utilisation de systèmes biométriques « en temps réel » dans l'espace public. Bien que les exceptions prévues par ces propositions pour la lutte contre le terrorisme, la traite des enfants et l'obtention d'un mandat d'arrêt européen aient suscité un certain scepticisme au sein de l'opinion publique, les chercheurs soulignent également que rien n'empêcherait les fournisseurs de vendre des systèmes biométriques contrevenants à des régimes oppressifs.

Le journal observe qu'il s'agit déjà d'une pratique historique, comme le révèle le rapport 2020 d'Amnesty International.

Il indique en outre que la spécification du système biométrique « en temps réel » de la loi sur l'IA est arbitraire et exclut les systèmes d'analyse hors ligne, tels que le traitement ultérieur de séquences vidéo d'événements de protestation.

En outre, il est à noter que les propositions n’offrent aucun mécanisme pour restreindre les systèmes biométriques qui sont mais liés à l'application de la loi, qui sont plutôt reportés paresseusement au RGPD ; et que le RGPD lui-même « impose une exigence de consentement individuel de haute qualité pour chaque personne scannée, ce qui est effectivement impossible à satisfaire ».

La formulation de cet article de la loi sur l'IA suscite également des critiques de la part des chercheurs. Le projet stipule qu'une autorisation préalable sera requise pour le déploiement de systèmes biométriques destinés à un usage individuel par les autorités compétentes, mais ne précise pas ce que signifie « usage individuel » dans ce contexte. L'article souligne que des mandats controversés peuvent être émis. thématique, et se rapportent à de larges organisations, objectifs et lieux.

En outre, le projet de règlement ne prévoit pas de mécanisme de transparence pour le nombre et le type d'autorisations délivrées, ce qui rend difficile l'examen public.

Externalisation de la réglementation vers des « normes harmonisées »

La recherche indique que les entités les plus importantes de la loi sur l'IA ne sont en fait pas mentionnées une seule fois dans le projet de règlement : le CEN (Comité européen de normalisation) et le CENELEC (Comité européen de normalisation électrotechnique) - deux des trois organismes européens de normalisation (ESO) qui la Commission européenne peut mandater la formulation de normes harmonisées, qui dans de nombreux cas resteraient les cadres réglementaires régissant certains types de services et de déploiements d'IA.

Cela signifie effectivement que les producteurs d'IA peuvent choisir de suivre les normes de ce qui est en fait concurrent plutôt que des réglementations complémentaires, au lieu de satisfaire aux exigences essentielles énoncées dans la Loi sur l'IA. Cela permet aux fournisseurs d'interpréter plus librement les règlements proposés lorsqu'ils entreront en vigueur en 2024-5.

Les chercheurs de l'étude estiment également que les années de lobbying industriel auprès des organismes de normalisation sont susceptibles de redéfinir considérablement ces « normes essentielles » et suggèrent que les réglementations « idéales » devraient commencer à un niveau éthique plus élevé et à une clarté législative plus élevée, ne serait-ce que pour tenir compte de ce processus inévitable d'attrition.

Légitimation du sophisme des systèmes de reconnaissance des émotions

La loi sur l'IA comporte des dispositions contre le déploiement de systèmes de reconnaissance et de catégorisation des émotions - des cadres qui n'identifient pas nécessairement un individu, mais qui prétendent comprendre ce qu'il ressent ou être en mesure de le catégoriser en termes de sexe, d'origine ethnique et de divers autres signifiants économiques et sociaux.

Les chercheurs soutiennent que cette clause est inutile, puisque le GDPR oblige déjà les fournisseurs de tels systèmes à fournir aux utilisateurs des informations claires sur l'utilisation de ces systèmes, afin que les utilisateurs puissent se retirer (ce qui peut impliquer de ne pas utiliser un service en ligne, ou de ne pas entrer une zone où l'existence de tels systèmes est annoncée).

Plus important encore, le document affirme que cette clause légitime une démystifié technologie, et poursuit en caractérisant FACSdes systèmes de reconnaissance des émotions de style à la lumière de l'histoire honteuse de la phrénologie et d'autres approches quasi chamaniques de la catégorisation sociale depuis le début de l'ère industrielle.

«Ceux qui prétendent détecter les émotions utilisent des taxonomies simplistes et discutables; assumer à tort l'universalité à travers les cultures et les contextes ; et risque de «[nous] ramener au passé phrénologique» d'analyser les traits de caractère des structures facialesLes dispositions de la loi sur la reconnaissance des émotions et la catégorisation biométrique semblent insuffisantes pour atténuer les risques.

Une proposition trop modeste

En plus de cela, les chercheurs abordent d’autres lacunes perçues dans la loi sur l’IA en ce qui concerne la réglementation des deepfakes, le manque de surveillance des émissions de carbone des systèmes d’IA, la duplication de la surveillance réglementaire avec d’autres cadres et la définition inadéquate des entités juridiques pouvant être poursuivies.

Ils exhortent les législateurs et les militants civils à prendre des mesures pour remédier aux problèmes identifiés, et notent en outre que même leur déconstruction approfondie du projet de règlement a dû omettre de nombreux autres sujets de préoccupation, en raison du manque d'espace.

Néanmoins, le document salue la tentative d'avant-garde de la loi d'introduire un système de régulation horizontale des systèmes d'IA, citant ses nombreux « éléments raisonnables », tels que la création d'une hiérarchie des niveaux d'évaluation des risques, l'engagement d'introduire des interdictions et la proposition d'une base de données publique des systèmes à laquelle les fournisseurs devraient contribuer afin d'obtenir une légitimité européenne, tout en notant les dilemmes juridiques que cette dernière exigence est susceptible de soulever.

 

Rédacteur en apprentissage automatique, spécialiste du domaine de la synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.
Site personnel : martinanderson.ai
Contact [email protected]
Twitter : @manders_ai