Réglementation
UE à lancer les premières réglementations sur l’IA

Le 21 avril, l’Union européenne annoncera son premier cadre réglementaire régissant l’utilisation de l’intelligence artificielle. Les nouvelles réglementations interdiront entièrement les systèmes d’apprentissage automatique à ‘haut risque’ et introduiront des normes minimales pour les autres technologies d’apprentissage automatique, imposant des pénalités de 20 millions d’euros, ou 4 % du chiffre d’affaires de l’entreprise, en cas d’infractions.
Un projet de rapport sur la nouvelle loi, obtenu par Politico, chercherait à encourager l’innovation et le développement de systèmes d’IA pour le bénéfice général de l’économie et de la société de l’UE, dans des domaines tels que la fabrication, l’amélioration de l’efficacité énergétique et la modélisation du changement climatique ; mais il interdirait l’utilisation de l’apprentissage automatique dans les systèmes de notation de crédit, l’évaluation automatisée des peines et l’évaluation de l’admissibilité aux prestations de sécurité sociale et aux demandes d’asile ou de visa, parmi d’autres interdictions qui seront révélées plus tard.
Le projet précise explicitement que les systèmes de notation sociale de style chinois pour les individus et les entreprises sont en opposition avec les valeurs de l’Union européenne et seront interdits en vertu de la réglementation, ainsi que les technologies de ‘surveillance de masse’ alimentées par l’IA.
Supervision réglementaire
À la suite de sa nomination d’un groupe d’experts de haut niveau sur l’intelligence artificielle en mars 2021, l’UE a également l’intention d’instituer un nouveau Conseil européen de l’intelligence artificielle, avec chaque État membre représenté, ainsi qu’un représentant de la Commission européenne et de l’autorité de protection des données de l’UE.
Peut-être la disposition la plus importante et potentiellement la plus controversée du projet est qu’elle interdit les systèmes qui causent des préjudices aux populations de l’UE en ‘manipulant leur comportement, leurs opinions ou leurs décisions’, ce qui inclurait probablement de nombreuses technologies qui alimentent l’analyse du marketing commercial et politique.
Les réglementations feront des exceptions pour la lutte contre la criminalité grave, en permettant des déploiements prescrits de systèmes de reconnaissance faciale, dans les limites de la portée et de la durée d’utilisation.
Comme avec la large portée du RGPD, il semble que ces nouvelles réglementations puissent être suffisamment générales pour provoquer un ‘effet de refroidissement’ dans les domaines où des lignes directrices strictes pour l’utilisation de l’IA ne sont pas fournies, avec des entreprises risquant d’être exposées lorsque leur utilisation de l’apprentissage automatique tombe dans une zone grise potentielle dans les réglementations.
Biais sous les nouvelles réglementations de l’UE sur l’IA
Cependant, le plus grand défi et le piège juridique potentiel vient de la stipulation du projet de réglementation selon laquelle les ensembles de données ne doivent pas ‘incorporer de biais intentionnels ou non intentionnels’ qui pourraient faciliter la discrimination.
Le biais des données est l’un des aspects les plus difficiles dans le développement de systèmes d’apprentissage automatique – difficile à prouver, difficile à résoudre et profondément lié aux cultures centrales des organismes de collecte de données. La question place de plus en plus les organismes de recherche privés et publics dans un courant croisé entre le besoin de représenter avec précision des groupes distincts (l’objectif fondateur des mathématiques computationnelles et de l’analyse statistique empirique) et le potentiel de promouvoir le profilage racial et la démonisation culturelle, entre autres considérations.
Il est donc probable que les marchés non européens espèrent que la nouvelle réglementation fournira au moins certaines zones de guidance et une gamme de définitions applicables à cet égard.
Résistance externe à la réglementation de l’IA de l’UE
La nouvelle réglementation est susceptible d’avoir un impact profond sur les ramifications juridiques de l’utilisation de l’apprentissage automatique pour analyser les données accessibles au public – ainsi que sur de telles données qui pourront encore être extraites des utilisateurs Web dans l’ère post-suivi actuellement introduite par Apple, Firefox et (dans une mesure moins importante), Chrome.
La juridiction peut nécessiter d’être clairement définie, par exemple dans les cas où les géants FAANG rassemblent des données d’utilisateurs conformément au RGPD, mais traitent ces données à travers des systèmes d’apprentissage automatique en dehors de l’Union européenne. Il n’est pas clair si les algorithmes dérivés via de tels systèmes pourraient être appliqués à des plateformes à l’intérieur de l’UE, et encore moins clair de la manière dont une telle application pourrait être prouvée.
Dans le cas de l’utilisation de l’IA pour éclairer les décisions de détention et de condamnation, une tendance croissante aux États-Unis, les expériences occasionnelles du Royaume-Uni dans ce secteur auraient été couvertes par les nouvelles réglementations si le pays n’avait pas quitté l’Union européenne.
En 2020, un projet de mémorandum de la Maison Blanche sur la réglementation de l’IA a déclaré le cas américain pour une réglementation faible de l’IA, déclarant que ‘Les agences fédérales doivent éviter les actions réglementaires ou non réglementaires qui entravent inutilement l’innovation et la croissance de l’IA’. De manière arguable, cette attitude semble susceptible de survivre à l’administration Trump sous laquelle le mémorandum a été publié, mais reflète plutôt le frottement imminent entre les États-Unis et l’UE à la suite de la nouvelle réglementation.
De même, la ‘feuille de route de l’IA’ du Conseil de l’IA du Royaume-Uni exprime un grand enthousiasme pour les avantages économiques de l’adoption de l’IA, mais une préoccupation générale que les nouvelles réglementations ne soient pas autorisées à entraver cette progression.
La première loi réelle pour l’IA
L’engagement de l’UE en faveur d’une position juridique sur l’IA est innovant. Les dix dernières années ont été caractérisées par une tempête de documents blancs et de résultats préliminaires de comités et de recommandations de gouvernements du monde entier, se concentrant sur l’éthique de l’IA, avec peu de lois réelles adoptées.

Répartition géographique des émetteurs de lignes directrices éthiques pour l’IA par nombre de documents publiés, dans une enquête de 2019. Le plus grand nombre de lignes directrices éthiques est publié aux États-Unis et au sein de l’Union européenne, suivi du Royaume-Uni et du Japon. Le Canada, l’Islande, la Norvège, les Émirats arabes unis, l’Inde, Singapour, la Corée du Sud, l’Australie sont représentés avec 1 document chacun. Ayant contribué à une déclaration spécifique du G7, les États membres des pays du G7 sont mis en évidence séparément. Source: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf












