Réglementation
Le PDG de Google plaide pour une réglementation accrue pour éviter les “conséquences négatives de l’IA”

L’année dernière, une attention croissante a été portée à la réglementation de l’industrie de l’IA, et cette année semble poursuivre cette tendance. Récemment, Sundar Pichai, le PDG de Google et d’Alphabet Inc., a soutenu la réglementation de l’IA lors d’un think tank économique qui se déroulait à Brugel.
Les commentaires de Pichai ont probablement été faits en anticipation de nouveaux plans de l’UE pour réglementer l’IA, qui seront révélés dans quelques semaines. Il est possible que les réglementations de l’UE contiennent des politiques qui imposent légalement certaines normes pour l’IA utilisée dans les transports, les soins de santé et d’autres secteurs à haut risque. Les nouvelles réglementations de l’UE peuvent également exiger une transparence accrue concernant les systèmes et les plateformes d’IA.
Selon Bloomberg, Google a précédemment tenté de contester les amendes antitrust et l’application des droits d’auteur dans l’UE. Malgré les tentatives précédentes pour s’opposer à certains cadres réglementaires en Europe, Pichai a déclaré que la réglementation est la bienvenue tant qu’elle prend “une approche proportionnée, en équilibrant les dommages potentiels avec les opportunités sociales”.
Pichai a récemment écrit un article d’opinion dans le Financial Times, dans lequel il a reconnu que, outre de nombreuses opportunités d’améliorer la société, l’IA a également le potentiel d’être mal utilisée. Pichai a déclaré que les réglementations devraient aider à éviter les “conséquences négatives de l’IA”, en citant l’utilisation abusive de la reconnaissance faciale et des deepfakes comme applications négatives de l’IA. Pichai a déclaré qu’un alignement international est nécessaire pour que les principes réglementaires fonctionnent, et qu’il faut donc parvenir à un accord sur les valeurs fondamentales. Au-delà de cela, Pichai a déclaré qu’il est de la responsabilité des entreprises d’IA comme Google de considérer comment l’IA peut être utilisée de manière éthique et que c’est pourquoi Google a adopté ses propres normes pour une utilisation éthique de l’IA en 2018.
Pichai a déclaré que les organismes réglementaires gouvernementaux et les politiques joueront un rôle important pour garantir que l’IA est utilisée de manière éthique, mais que ces organismes n’ont pas besoin de recommencer à zéro. Pichai suggère que les entités réglementaires peuvent s’inspirer des réglementations précédemment établies, telles que le Règlement général sur la protection des données de l’Europe. Pichai a également écrit que la réglementation éthique de l’IA peut potentiellement être à la fois large et flexible, avec une réglementation qui fournit des orientations générales qui peuvent être adaptées à des mises en œuvre spécifiques dans des secteurs d’IA spécifiques. Les nouvelles technologies comme les véhicules autonomes nécessiteront de nouvelles règles et politiques qui pèsent les avantages et les coûts les uns contre les autres, tandis que pour des domaines plus familiers comme les dispositifs médicaux, les cadres existants peuvent être un bon point de départ.
Enfin, Pichai a déclaré que Google souhaite s’associer aux régulateurs pour élaborer des politiques et trouver des solutions qui équilibreront les compromis, Pichai a écrit dans le Financial Times :
“Nous voulons être un partenaire utile et engagé pour les régulateurs alors qu’ils luttent contre les tensions et les compromis inévitables. Nous offrons notre expertise, notre expérience et nos outils alors que nous naviguons ensemble dans ces questions.”
Alors que certains ont applaudi Google pour avoir pris position sur la nécessité d’une réglementation pour garantir une utilisation éthique de l’IA, le débat se poursuit sur l’étendue à laquelle il est approprié que les entreprises d’IA soient impliquées dans la création de cadres réglementaires.
En ce qui concerne les réglementations de l’UE à venir, il est possible que l’UE poursuive un système de règles basé sur les risques, qui imposerait des restrictions plus strictes sur les applications à haut risque de l’IA. Cela inclut des restrictions qui pourraient être beaucoup plus strictes que ce que Google espère, y compris un interdiction potentielle de plusieurs années de la technologie de reconnaissance faciale (avec des exceptions pour la recherche et la sécurité). Contrairement aux approches plus restrictives de l’UE, les États-Unis ont plaidé pour des réglementations relativement légères. Il reste à voir comment les différentes stratégies de réglementation auront un impact sur le développement de l’IA et sur la société dans son ensemble, dans les deux régions du globe.












