Connect with us

Pourquoi les entreprises devraient suivre une approche fondée sur les valeurs pour la gouvernance de l’IA

Leaders d’opinion

Pourquoi les entreprises devraient suivre une approche fondée sur les valeurs pour la gouvernance de l’IA

mm

En septembre 2025, pour la première fois, tous les États membres des Nations Unies se sont réunis pour discuter de la gouvernance internationale de l’IA ; beaucoup ont été représentés à nouveau en février au sommet de l’impact de l’IA à Delhi. L’événement a conduit au lancement de deux nouveaux organismes centrés sur la gouvernance de l’IA ; mais il s’agissait, au mieux, d’un succès symbolique.

Les nouveaux mécanismes de l’ONU ont été conçus pour sécuriser un consensus : ils s’écartent des domaines contestés tels que les utilisations militaires de l’IA, et manquent de sources claires de financement et de pouvoirs d’application. Cela ne devrait pas surprendre les observateurs expérimentés. L’ONU d’aujourd’hui manque la capacité de bouger rapidement ou d’assurer une conformité universelle avec ses décisions, ce qui en fait un forum difficile pour opérer un changement réel.

Ceci correspond à un modèle bien établi. Malgré des années d’efforts épars pour établir un consensus sur les réglementations de l’IA, il n’y a pas eu d’accords internationaux significatifs, créant un vide dans lequel les pays et les blocs individuels ont été forcés de développer leurs propres règles. Pourtant, la gouvernance efficace de l’IA est cruciale si nous souhaitons la voir adoptée largement, faire confiance au public et l’utiliser de manière à apporter des avantages sociaux et économiques durables.

Faire avec et réparer

Pour les entreprises mondiales qui construisent et exploitent des systèmes d’IA, ce manque de mécanismes de gouvernance communs et acceptés est problématique. Ils souhaitent déployer des systèmes d’IA partout dans le monde, mais aucune juridiction n’observe le même ensemble de règles. Ils sont donc forcés de créer un cadre de gouvernance générique autour de leur système, puis de le reconstruire de zéro dans chaque pays dans lequel ils opèrent pour s’assurer qu’il est conforme aux lois et réglementations locales. Cette approche crée une quantité énorme de travail supplémentaire, rend les initiatives d’IA plus coûteuses et plus sujettes aux retards, et affaiblit la capacité des entreprises mondiales à réaliser des économies d’échelle et à partager des outils efficaces avec les utilisateurs partout.

Il existe cependant une alternative. Pour les entreprises qui cherchent à rationaliser leur approche, la meilleure option peut être de construire un cadre de gouvernance de l’IA qui tient compte des principes éthiques communs dans ces différentes régions, en s’assurant qu’ils répondent à des normes élevées partout en termes de protection de la liberté, de la vie privée et de la sécurité des individus. Cette technique représente un moyen puissant pour les entreprises d’IA d’augmenter la confiance du public dans leur technologie, de renforcer leur base de clients et de tirer parti des avantages potentiels de l’IA pour la société.

Six valeurs clés pour la gouvernance de l’IA

Pour toute organisation intéressée à adopter une approche fondée sur les valeurs pour la gouvernance de l’IA, je suggérerais d’utiliser les six valeurs clés que nous suivons : la responsabilité, l’explicabilité, la transparence, l’équité, la sécurité et la contestabilité.

Nous avons choisi ces valeurs parce qu’elles couvrent tous les principaux domaines du cycle de vie du système d’IA et parce qu’elles ont déjà été codifiées dans diverses normes internationales et nationales relatives à l’IA, telles que la norme ISO/IEC 42001 de l’Organisation internationale de normalisation et le Livre de jeu de l’intelligence artificielle pour le gouvernement du Royaume-Uni.

Pour commencer, la responsabilité signifie savoir qui est responsable de quoi à chaque étape du cycle de vie de l’IA. Sans une propriété claire, des contrôles essentiels peuvent être omis parce qu’aucun individu ou équipe n’a la responsabilité ultime. Les organisations devraient assigner des propriétaires seniors nommés – tels que leur directeur de l’IA – aux systèmes et aux étapes clés de l’IA et utiliser un modèle de gouvernance basé sur les risques, en appliquant le même examen aux outils tiers qu’aux outils développés en interne. Cela signifie comprendre les conditions du fournisseur, les limitations et les responsabilités tout aussi bien que leurs propres systèmes.

L’Organisation de coopération et de développement économiques (OCDE) capte bien cela dans ses orientations sur l’amélioration de la responsabilité dans l’IA, qui recommandent que les organisations créent « des mécanismes pour intégrer le processus de gestion des risques liés à l’IA dans la gouvernance organisationnelle plus large, en favorisant une culture de gestion des risques à la fois au sein des organisations et dans l’ensemble de la chaîne de valeur de l’IA ».

Ensuite, il y a l’explicabilité. Les organisations devraient être en mesure de montrer comment un système d’IA prend une décision. Cela nécessite des mécanismes pour documenter et retracer la prise de décision, ainsi que des dossiers clairs de la conception du système, des données de formation et des processus de décision. Pris ensemble, cela permet aux équipes de comprendre la lignée de l’information depuis la conception du système jusqu’à son déploiement.

L’équité se concentre sur la garantie que les systèmes d’IA produisent des résultats équitables et ne reproduisent pas ou n’amplifient pas les préjugés existants. Sans vérifications délibérées, les systèmes peuvent causer des préjudices en fournissant des résultats biaisés – un problème particulier dans les domaines à forte incidence tels que le recrutement, les soins de santé et la justice pénale. Pour atténuer cela, les organisations devraient mettre en œuvre des mesures de détection des préjugés, examiner régulièrement les sorties dans les groupes pertinents et concevoir des cadres de gouvernance qui puissent accueillir les exigences locales de non-discrimination. Dans la pratique, cela signifie construire des systèmes pour répondre à la norme juridique la plus élevée qu’ils sont susceptibles de rencontrer, y compris les obligations en vertu de lois telles que la Loi sur l’égalité de 2010 du Royaume-Uni et la Charte des droits fondamentaux de l’UE.

La transparence concerne la clarification à la fois pour les utilisateurs et les régulateurs. Les gens devraient comprendre quand l’IA est utilisée, quel rôle elle joue dans la prise de décision et quels données la sous-tendent. Un point de départ pratique est de normaliser la documentation sur les systèmes d’IA, soutenue par des outils internes tels que les cartes de modèle : de courts documents fournis avec les modèles d’apprentissage automatique qui expliquent le contexte dans lequel les modèles sont destinés à être utilisés, les détails des procédures d’évaluation des performances et d’autres informations pertinentes. Sans transparence, les utilisateurs ne peuvent pas contester les résultats injustes, les régulateurs ne peuvent pas intervenir efficacement et les impacts nocifs peuvent être balayés sous le tapis.

La sécurité implique la protection des systèmes d’IA contre l’accès non autorisé, la manipulation ou le comportement involontaire. Si la sécurité est faible, les IA peuvent exposer les organisations, les utilisateurs et leurs données à des risques, les exposant à des préjudices financiers et à des atteintes à la réputation. Les organisations devraient définir des seuils de performance et de précision, tester les systèmes dans des conditions réalistes et intégrer des tests de l’équipe rouge pour identifier les vulnérabilités.

Enfin, la contestabilité garantit que les gens ont un moyen clair et accessible de contester ou de faire appel des décisions motivées par l’IA. Sans cela, les utilisateurs affectés n’ont aucun recours et les problèmes peuvent ne jamais être mis en surface ou résolus. Les organisations devraient fournir des canaux de signalement au point d’utilisation, assigner des propriétaires seniors pour gérer les plaintes et s’assurer que les systèmes peuvent être suspendus, examinés ou mis à jour si nécessaire.

Quels sont les avantages d’un cadre fondé sur les valeurs ?

Il existe deux raisons puissantes pour adopter cette approche fondée sur les valeurs pour la gouvernance de l’IA. Premièrement, parce que ceux qui construisent et déploient des systèmes d’IA ont une responsabilité éthique envers les personnes et les organisations affectées par eux ; et, deuxièmement, parce que c’est une façon plus efficace de réaliser les avantages promis de l’IA dans la pratique.

Les utilisateurs des systèmes d’IA, tant corporatifs qu’individuels, font confiance implicitement à leurs créateurs pour ne pas abuser des données personnelles ou les exposer à des risques inutiles. Lorsque les organisations enfreignent cette confiance, il devient très difficile pour elles de conserver ces utilisateurs. En fin de compte, à moins que les gens n’aient confiance dans les systèmes d’IA et ne voient pas clairement les avantages qu’ils apportent, ils ne seront pas disposés à les adopter. Cela entraînera davantage de divisions sociales et économiques, et nous manquerons de nombreuses opportunités présentées par cette technologie.

D’un autre côté, les entreprises qui appliquent un cadre fondé sur les valeurs partout – y compris dans les régions ayant des exigences de gouvernance plus souples – peuvent démontrer à leurs clients, investisseurs et régulateurs qu’elles se tiennent à une norme plus élevée que les exigences de base de conformité. Cela crée la confiance, l’engagement et, en fin de compte, le succès commercial.

Une solide gouvernance de l’IA est un créateur de valeur, et non une charge de conformité. Elle permet aux entreprises de lancer de nouveaux produits sur le marché plus rapidement, de réduire leur exposition aux risques et de mettre à l’échelle leurs solutions sur plusieurs marchés avec confiance.

Le rapport « L’état de l’IA » de McKinsey constate que « la surveillance de la gouvernance de l’IA par le PDG… est un élément le plus corrélé avec un impact sur le chiffre d’affaires plus élevé autodéclaré de l’utilisation de l’IA générique par une organisation, soulignant les avantages commerciaux d’une telle approche. À cet égard, intégrer de solides cadres éthiques dans les systèmes d’IA représente un intérêt éclairé.

Au-delà de tout cela, cependant, il s’agit simplement de la bonne chose à faire. Nous avons construit notre politique éthique mondiale de l’IA autour du même principe : que les technologies avancées doivent servir les personnes et la société, et non l’inverse. Cela reflète la vision plus large de la Société 5.0 : un modèle d’innovation centré sur l’homme qui vise à combiner le progrès économique avec la résolution des défis sociaux.

Si les technologies émergentes comme l’IA doivent favoriser une société plus heureuse et plus harmonieuse, elles doivent être construites sur des fondements éthiques solides. Cela commence par une attention non seulement aux normes que les organisations sont tenues de respecter, mais aussi aux normes qu’elles souhaitent atteindre.

Isabella Grandi est directrice de la stratégie, de la gouvernance et de l'éthique des données et de l'IA chez NTT DATA UK&I. Elle travaille avec des organisations pour élaborer et mettre en œuvre une IA et une gouvernance de l'IA responsables qui les font passer de leur état actuel à un modèle d'exploitation plus mature et axé sur les données.

Son travail se concentre sur l'intégration de pratiques éthiques et d'une gestion robuste des risques liés à l'IA dans la façon dont les organisations conçoivent et déploient l'IA, en veillant à ce que l'utilisation responsable soit intégrée dans les structures de prise de décision et les opérations quotidiennes.