Règlement
L'UE va lancer le premier règlement sur l'IA

Le 21 avril, l'Union européenne annoncera son premier cadre réglementaire régissant l'utilisation de l'intelligence artificielle. Ce nouveau règlement interdira totalement les systèmes d'apprentissage automatique « à haut risque » et introduira des normes minimales pour les autres technologies d'apprentissage automatique, imposant des sanctions pouvant atteindre 20 millions d'euros, soit 4 % du chiffre d'affaires de l'entreprise, en cas de violation.
Un projet de rapport de la nouvelle loi, obtenu Ce projet de loi, proposé par Politico, viserait à encourager l'innovation et le développement de systèmes d'IA pour le bénéfice général de l'économie et de la société de l'UE, dans des domaines tels que la fabrication, l'amélioration de l'efficacité énergétique et la modélisation du changement climatique ; mais il interdirait l'utilisation de l'apprentissage automatique dans les systèmes de notation de crédit, l'évaluation automatisée des peines pénales et l'évaluation de l'aptitude aux prestations de sécurité sociale et aux demandes d'asile ou de visa, entre autres interdictions qui seront révélées ultérieurement.
Le projet stipule explicitement que Style chinois Les systèmes de notation sociale pour les particuliers et les entreprises sont en opposition avec les valeurs de l'Union européenne et seront interdits en vertu du règlement, tout comme les technologies de « surveillance de masse » alimentées par l'IA.
Surveillance réglementaire
Suite à sa rendez-vous d'un groupe d'experts de haut niveau sur l'intelligence artificielle en mars 2021, l'UE a également l'intention d'instituer un nouveau comité européen de l'intelligence artificielle, avec chaque État membre représenté, ainsi qu'un représentant de la Commission européenne et de l'autorité de protection des données de l'UE.
L'article le plus radical et potentiellement le plus controversé du projet est peut-être celui qui interdit les systèmes qui nuisent aux populations de l'UE en « manipulant leur comportement, leurs opinions ou leurs décisions », ce qui inclurait sans doute de nombreuses technologies qui alimentent l'analyse du marketing commercial et politique.
La réglementation fera des exceptions pour la lutte contre la criminalité grave, permettant des déploiements prescrits de systèmes de reconnaissance faciale, dans des limites de portée et de durée d'utilisation.
Comme avec la large balayage du RGPD, il semble que ces nouvelles réglementations puissent être suffisamment générales pour provoquer un « effet paralysant » dans les domaines où des directives strictes pour l'utilisation de l'IA ne sont pas fournies, les entreprises risquant d'être exposées lorsque leur utilisation de l'apprentissage automatique tombe dans une zone grise potentielle au sein de la réglementation.
Biais dans le nouveau règlement de l'UE sur l'IA
Cependant, le plus grand défi et le bourbier juridique potentiel réside dans la disposition du projet de règlement stipulant que les ensembles de données « n’intègrent aucun biais intentionnel ou non intentionnel » susceptible de faciliter la discrimination.
Biais de données est l'un des aspects les plus difficiles du développement de systèmes d'apprentissage automatique - difficile à prouver, difficile à aborder et profondément lié aux cultures centrales des organismes de collecte de données. La question place de plus en plus les organismes de recherche privés et publics dans un courant croisé entre la nécessité de représenter avec précision des groupes distincts (pratiquement l'objectif fondateur des mathématiques computationnelles et de l'analyse statistique empirique) et le potentiel de promulguer le profilage racial et la diabolisation culturelle, entre autres considérations. .
Il est donc probable que les marchés non européens espèrent que le nouveau règlement fournira au moins quelques domaines spécifiques d’orientation et une série de définitions applicables à cet égard.
Résistance externe à la réglementation européenne sur l'IA
La nouvelle réglementation est susceptible d'avoir un impact profond sur les ramifications juridiques de l'utilisation de l'apprentissage automatique pour analyser les données publiques, ainsi que sur les données qu'il sera toujours possible d'extraire des utilisateurs du Web à l'ère post-pistage qui est actuellement inaugurée par Apple, Firefox et (à un dans une moindre mesure), Chrome.
Il pourrait être nécessaire de définir clairement la juridiction, par exemple dans les cas où les géants FAANG collectent des données utilisateurs conformément au RGPD, mais traitent ces données par le biais de systèmes d'apprentissage automatique hors de l'Union européenne. Il n'est pas certain que les algorithmes dérivés de ces systèmes puissent être appliqués à des plateformes au sein de l'UE, et encore moins comment une telle application pourrait être prouvée.
Dans le cas de l'utilisation de l'IA pour éclairer les décisions de détention et la détermination de la peine, un tendance croissante aux États-Unis, le Royaume-Uni lui-même occasionnellement expériences dans ce secteur auraient été couverts par la nouvelle réglementation si le pays n'était pas sorti de l'Union européenne.
En 2020, un projet de mémorandum de la Maison Blanche sur la réglementation de l'IA a exposé les arguments américains en faveur d'une faible réglementation de l'IA, déclarant que « Les agences fédérales doivent éviter les actions réglementaires ou non réglementaires qui entravent inutilement l'innovation et la croissance de l'IA ». On peut soutenir que cette attitude semble susceptible de survivre à l'administration Trump sous laquelle le mémorandum a été publié, mais reflète plutôt l'abrasion à venir entre les États-Unis et l'UE à la suite de la nouvelle réglementation.
De même, le Conseil britannique de l'IA « Feuille de route de l'IA » exprime un grand enthousiasme pour les avantages économiques de l'adoption de l'IA, mais une préoccupation générale que de nouvelles réglementations ne soient pas autorisées à entraver ces progrès.
La première vraie loi pour l'IA
L'engagement de l'UE en faveur d'une position juridique sur l'IA est novateur. Les dix dernières années ont été marquées par une blizzard de livres blancs et de conclusions et recommandations préliminaires de comités de gouvernements du monde entier, se concentrant sur l'éthique de l'IA, avec peu de lois réelles en cours d'adoption.

Répartition géographique des émetteurs de lignes directrices éthiques sur l'IA selon le nombre de documents publiés, dans une enquête de 2019. Le plus grand nombre de lignes directrices éthiques est publié aux États-Unis et au sein de l'Union européenne, suivis du Royaume-Uni et du Japon. Le Canada, l'Islande, la Norvège, les Emirats Arabes Unis, l'Inde, Singapour, la Corée du Sud, l'Australie sont représentés avec 1 document chacun. Après avoir contribué à une déclaration spécifique du G7, les États membres des pays du G7 sont mis en évidence séparément. Source : https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf












