Connect with us

La plupart des dirigeants de la technologie américaine veulent une réglementation de l’IA, mais qui devrait la diriger ?

Réglementation

La plupart des dirigeants de la technologie américaine veulent une réglementation de l’IA, mais qui devrait la diriger ?

mm

Tout comme les années 1990 ont vu la commercialisation d’Internet, les années 2000 le smartphone, et les années 2010 l’essor des médias sociaux, les années 2020 appartiennent à l’IA. Comme ces précédentes avancées technologiques, l’IA semble également se développer plus rapidement que les régulateurs et les législateurs ne peuvent suivre.

La bulle Internet a éclaté en 1993 avec le lancement du navigateur Mosaic inclusif, et ce n’est qu’en 1996 que le Congrès américain a adopté la Loi sur les télécommunications, la première à aborder explicitement Internet. De même, Apple a présenté l’iPhone en 2007, bien que les législateurs aient adopté la Loi sur les communications et la vidéo du 21e siècle en 2010, exigeant que tous les smartphones incluent des fonctionnalités d’accessibilité.

Et bien que la « décennie des médias sociaux » des années 2010 ait vu l’établissement et l’expansion de plateformes comme Facebook, WhatsApp, YouTube et Instagram, ce n’est qu’à la deuxième moitié de la décennie que la loi FOSTA-SESTA a été approuvée, rendant les plateformes responsables de la facilitation intentionnelle de la traite des êtres humains. L’histoire se répétera-t-elle avec l’IA ?

Alors que l’IA est devenue mainstream après la sortie bouleversante d’OpenAI’s ChatGPT en 2022, le pays d’origine de l’outil n’a pas encore adopté de législation fédérale pour la réglementer. Les États-Unis, au lieu de cela, ont modifié leur position – de restrictive à déréglementaire – à mesure que les administrations ont changé.

IA aux États-Unis : une question bipartite

L’ancien président Joe Biden a présenté la loi Sûr, sécurisé et digne de confiance en 2023, qui exigeait que les agences fédérales prennent des mesures pour assurer la sécurité, les droits civils, l’équité et la transparence de l’IA. « Utiliser l’IA pour le bien et réaliser ses nombreux avantages nécessite d’atténuer ses risques importants », indique la loi lit.

En janvier 2025, cependant, le président actuel Donald Trump a signé la loi Supprimer les obstacles au leadership américain en matière d’intelligence artificielle, annulant les politiques et les directives existantes sur l’IA « qui agissent comme des obstacles à l’innovation américaine en matière d’IA, ouvrant la voie aux États-Unis pour agir de manière décisive pour conserver le leadership mondial en matière d’intelligence artificielle ».

L’administration actuelle cherche donc à accélérer l’innovation en matière d’IA aux États-Unis via des efforts de déréglementation, contrebalançant les risques potentiels par des investissements dans la recherche et le développement. La question demeure, cependant, de savoir si c’est au gouvernement de s’attaquer à ces préoccupations.

Aujourd’hui, il existe des anxiétés quasi universelles concernant les risques liés à l’IA, notamment en matière d’éthique, de perturbation et de confiance. Une étude de 2024 sur les préoccupations des parties prenantes liées à l’IA a en fait constaté que les préoccupations les plus pressantes incluent les préjugés, les mauvaises utilisations, les actions de machine inattendues, les inégalités, l’anxiété sociale et les changements dans les chaînes d’approvisionnement, pour n’en citer que quelques-unes.

La plupart des dirigeants de la technologie américaine sont d’accord, mais mettent en évidence le paradoxe. Un rapport de septembre 2025 de Solvd, une société de conseil en IA et d’ingénierie numérique, a conclu que même si 97 % des directeurs de l’information (CIO) et des directeurs de la technologie (CTO) répondants sont quelque peu préoccupés par une utilisation contraire à l’éthique de l’IA, 87 % estiment qu’une réglementation excessive de l’IA pourrait limiter l’innovation et devenir un désavantage concurrentiel.

Les principales préoccupations de ces dirigeants échoient à celles identifiées par l’étude de 2024 : les modèles d’IA devenant si puissants qu’ils ne peuvent pas être contrôlés, les acteurs malveillants pouvant potentiellement profiter des vulnérabilités de l’IA, les modèles d’IA ayant accès à trop de données d’entreprise et les fausses informations ou les préjugés que la technologie pourrait présenter.

Parmi les 500 CIO et CTO américains d’entreprises réalisant plus de 500 millions de dollars de chiffre d’affaires que Solvd a interrogés, 61 % ont préféré une réglementation publique, tandis que 36 % ont préféré une réglementation menée par l’industrie.

Une réglementation menée par l’industrie pourrait signifier un modèle mixte, s’éloignant de la dichotomie public-privé. L’administration Biden, en fait, a négocié un accord avec les principaux dirigeants de la technologie en 2023 qui détaillait les engagements volontaires concernant les garde-fous de l’IA. De tels engagements comprenaient la garantie que les produits étaient sûrs avant leur lancement public, la construction de systèmes qui donnent la priorité à la sécurité et la conquête de la confiance du public grâce à la transparence et à la divulgation des capacités, des limites et des domaines d’utilisation appropriés et inappropriés des systèmes d’IA.

Une conversation mondiale

Malgré la divergence dans les préférences des dirigeants d’entreprise pour des cadres réglementaires publics ou menés par l’industrie, il reste que 82 % d’entre eux sont principalement responsables de la gouvernance interne de l’IA, selon Solvd. Seuls 8 % des répondants ont désigné la direction générale pour la réglementation interne de l’IA, et 5 % ont indiqué que leurs entreprises disposaient d’un conseil d’éthique de l’IA ou d’un comité de conformité.

Les entreprises – et leurs employés – sont ainsi prises entre l’attente d’une politique publique qui peut ou non arriver, et agir principalement de manière indépendante de la direction générale et des équipes formées à l’éthique de l’IA.

Différents contextes ont trouvé des solutions distinctes à cette complication. L’Union européenne (UE), par exemple, contraste fortement l’approche déréglementaire de l’administration Trump via le Règlement AI de l’UE, la première loi complète sur l’IA au monde. Adopté en mars 2024, le Règlement a interdit certaines applications d’IA, établi un cadre d’évaluation fondé sur les risques et exigé légalement la transparence et la communication avec les utilisateurs.

D’autres suivent l’exemple de l’UE. Le Chili, le leader de l’IA en Amérique du Sud, a récemment proposé un projet de loi pour réglementer l’IA, inspiré du Règlement AI de l’UE. La Chine, en revanche, contourne largement ces obstacles, car son système politique favorise la réglementation sanctionnée par l’État, les subventions et les partenariats avec des sociétés d’IA privées. Les défis du pays proviennent moins d’une dichotomie réglementaire et plus des risques de censure et d’ingérence de l’État dans l’innovation.

Mais les États-Unis, en tant que leader mondial de l’IA, est susceptible de définir le ton pour l’avenir des cadres réglementaires.

Pensées finales

La mise en œuvre et l’innovation de l’IA sont devenues un avantage concurrentiel dans presque toutes les industries à travers le monde. Mais, sans clarté réglementaire et avec des politiques changeantes, les dirigeants de la technologie doivent établir leurs propres garde-fous, et être responsables de la protection des consommateurs, de la conquête de leur confiance au milieu d’une peur généralisée de l’IA, et d’innover – tout simultanément.

Malgré les inquiétudes transsectorielles selon lesquelles des réglementations strictes pourraient entraver l’innovation, le contraire pourrait être vrai. Selon RegulatingAI, une organisation à but non lucratif basée aux États-Unis consacrée à l’exploration de l’intersection de l’IA et de la réglementation, l’incertitude concernant la police de l’IA retarde l’adoption de la technologie, ce qui retarde la réalisation des avantages économiques, le manque d’investissement et entrave les marges de mise à l’échelle des entreprises.

« Clarifier la manière dont les systèmes d’IA sont définis dans les contextes réglementaires est crucial, car l’ambiguïté des définitions ajoute aux défis de conformité », a noté l’organisation à but non lucratif.

De même, Solvd a souligné l’importance pour les entreprises de saisir la confusion réglementaire actuelle. « Maintenant est le moment idéal pour les entreprises d’établir une gouvernance interne efficace avant que les régulateurs externes n’interviennent et n’imposent potentiellement des solutions moins flexibles », a conclu le rapport de l’entreprise.

Dans ce contexte, les innovateurs de l’IA aux États-Unis sont confrontés à des défis sans précédent : des risques réputationnels pour ne pas adopter des politiques de surveillance, et la possibilité de lacunes de conformité lorsqu’une réglementation sera mise en place.

Mais l’opportunité brille également. Avec le recul de l’Internet, des smartphones et des médias sociaux, maintenant est précisément le moment de regarder vers l’avenir et de construire un écosystème qui équilibre l’innovation avec la responsabilité, favorise la confiance et se prépare à l’inévitabilité de la réglementation.

Salomé est une journaliste née à Medellín et reporter senior chez Espacio Media Incubator. Avec une formation en histoire et en politique, le travail de Salomé met l'accent sur la pertinence sociale des technologies émergentes. Elle a été présentée sur Al Jazeera, Latin America Reports et The Sociable, entre autres.