Connect with us

Un guide pratique pour la livraison d’IA responsable

Leaders d’opinion

Un guide pratique pour la livraison d’IA responsable

mm

Les déploiements d’intelligence artificielle (IA) s’étendent au-delà des premières phases de pilote pour devenir des solutions entièrement intégrées, stimulant la production et la transformation de l’entreprise à l’échelle mondiale. Face à cela, les dirigeants sont confrontés à une tâche difficile : passer de l’IA de la preuve de concept au cœur des opérations quotidiennes. Ce changement les oblige à répondre à de nouvelles questions, allant de la manière de développer, de déployer et d’utiliser l’IA de manière responsable pour établir une fondation solide sur laquelle s’appuyer pour évoluer.

L’IA responsable consiste à s’assurer que l’IA est utile sans être nuisible aux personnes, aux organisations et à la société. Même si la perception peut être qu’elle peut ralentir le cycle de développement, dans la pratique, elle peut rendre l’innovation plus solide. La mise en œuvre de l’IA responsable peut aider à réduire le nombre d’échecs coûteux, permettre une adoption et une confiance plus rapides, fournir des systèmes prêts à la réglementation et améliorer la durabilité.

Cependant, comprendre comment les organisations peuvent développer, déployer et adopter l’IA responsable est essentiel pour assurer sa pratique fondamentale et son intégration complète. Nous fournissons ici un guide pratique sur la façon dont les entreprises peuvent le faire, en garantissant une surveillance humaine dès les premières étapes de conception jusqu’au déploiement, à la surveillance, à l’évaluation des risques et à la désactivation éventuelle.

Ceux qui traitent l’IA responsable comme une après-pensée risquent l’exposition réglementaire, les dommages à la réputation et l’érosion de la confiance des clients. En revanche, ceux qui l’intègrent dès le départ sont mieux positionnés pour évoluer de manière durable.

Identifier les cinq principes pour intégrer l’IA responsable

Au cœur de toute stratégie d’IA responsable se trouve un ensemble de principes fondamentaux qui doivent guider le développement, le déploiement, l’évaluation et la gouvernance. L’impact de ces principes façonne les pratiques de gouvernance, de gestion des risques et de conformité qui protègent les personnes et préservent la valeur de la marque.

Pour les grandes organisations, elles doivent travailler avec des équipes et des partenaires externes pour en assurer l’intégration. Comme tel, il existe cinq principes clés que les entreprises peuvent adopter pour orienter leurs initiatives d’IA vers la confiance, la conformité et les résultats éthiques.

Premièrement, la responsabilité. Quelqu’un doit être responsable du résultat de chaque système d’IA important et il doit y avoir une personne ou une équipe responsable du début à la fin. Commencez par un inventaire simple, automatisé pour évoluer et commencez à lister les systèmes d’IA, leurs objectifs, les sources de données et les propriétaires. Il est également important d’avoir un plan pour les cas où les choses tournent mal. Il est essentiel de savoir comment suspendre et comment enquêter et atténuer les problèmes.

Deuxièmement, évaluer l’équité de l’IA et son impact potentiel sur les personnes est important. Ne vous fiez pas uniquement aux métriques techniques et soyez conscient que les résultats de l’IA pourraient différer entre les groupes et désavantager involontairement quelqu’un. C’est critique pour les cas d’utilisation à haut risque dans des domaines tels que l’embauche, l’octroi de prêts ou les soins de santé. Utilisez des tests de données chaque fois que possible et incluez une révision humaine et les raisons de la sortie.

Troisièmement, la sécurité est cruciale. Les menaces pour les systèmes d’IA continuent d’évoluer, y compris maintenant les attaques basées sur les invites ou les agents. Il est crucial de répondre à ces risques et de travailler avec les équipes de sécurité pour modéliser ces attaques potentielles. Intégrez la sécurité dans la conception, limitez l’accès de l’IA aux autres systèmes et données, et effectuez des tests en continu même après le lancement.

Le quatrième facteur est la vie privée. Cette préoccupation va au-delà des données de formation initiales, et la vie privée doit être protégée à chaque étape. Considérez la vie privée dans les invites des utilisateurs, les journaux de conversation et les sorties générées par l’IA, car ils peuvent tous contenir des informations privées. Conceptionnez des systèmes pour collecter uniquement les données nécessaires, établissez des règles strictes pour l’accès et la conservation, et effectuez des examens de confidentialité pour les applications à plus haut risque.

Enfin, la transparence et la fourniture de contrôles qui s’adaptent aux parties prenantes sont essentielles. Ce que les clients ont besoin de savoir diffère de ce dont les développeurs d’IA ont besoin. Alternativement, les utilisateurs doivent savoir lorsqu’ils interagissent avec l’IA et comprendre ses limites. Les équipes internes ont besoin d’une documentation claire sur la façon dont l’IA a été construite et sur ses performances. La transparence des systèmes d’IA alimente la surveillance partagée et la confiance dans les capacités du système.

Connaître les différences : IA responsable vs. Gouvernance de l’IA

Même si l’IA responsable et la gouvernance de l’IA sont souvent utilisées de manière interchangeable, il existe des différences clés. L’IA responsable est un ensemble de pratiques et de principes holistiques pour prendre des décisions fiables tout au long du développement, du déploiement et de l’utilisation de l’IA. Elle se concentre sur la mise en place de capacités telles que les cinq principes ci-dessus pour minimiser les risques et maximiser les avantages de l’IA.

La gouvernance de l’IA, en revanche, est un ensemble de politiques, de procédures et de pratiques qui visent à permettre des résultats positifs et à réduire la probabilité de préjudice. Elle se concentre sur la mise en place des contrôles organisationnels et techniques appropriés pour permettre une IA responsable et éthique, souvent avec un accent sur la responsabilité et la conformité avec les lois et les politiques organisationnelles.

Les organisations sont mieux positionnées pour évoluer de manière responsable tout en maintenant la confiance et la préparation réglementaire lorsqu’elles comprennent que ces deux éléments sont distincts mais connectés. De plus, même si certaines actions sur la responsabilité et la gouvernance sont exigées par la loi, certaines ne le sont pas. Par exemple, les lois qui imposent des restrictions sur les emplois que les femmes peuvent occuper dans certains pays. Par conséquent, les deux sont nécessaires pour une approche complète et équilibrée de l’IA responsable.

L’importance d’une gouvernance flexible

À mesure que l’IA se généralise, les régulateurs interviennent avec des cadres de gouvernance qui vont au-delà des lignes directrices volontaires. Des réglementations comme l’Acte sur l’intelligence artificielle de l’Union européenne placent la réglementation fondée sur les risques au cœur de la gouvernance de l’IA. Plutôt que de réglementer la technologie de manière uniforme, l’Acte classe les systèmes d’IA en plusieurs niveaux de risque qui reconnaissent le préjudice potentiel en fonction de divers cas d’utilisation. Par exemple, un écran de sélection d’embauche d’IA par rapport à un moteur de recommandation de shopping. Cela implique que la gouvernance, la documentation et les garanties doivent être alignées sur le contexte et l’application de l’IA.

D’autres juridictions ont également défini des cadres pour la gouvernance de l’IA. Selon ce rapport IAPP, Singapour promeut une approche flexible avec des outils tels que son Cadre de gouvernance de l’IA de modèle, en mettant l’accent sur les tests et la transparence plutôt que sur les mandats stricts. La Loi de base sur l’IA de la Corée du Sud combine également la surveillance avec un espace pour l’innovation. Et au sein des industries, cela diffère. Les services financiers ont longtemps été confrontés à des normes de sécurité et d’équité strictes, tandis que l’IA dans les soins de santé doit répondre aux réglementations sur les dispositifs médicaux. Les produits technologiques pour les consommateurs sont également soumis aux lois sur la protection de la vie privée et la protection des consommateurs, avec chaque domaine exigeant des réglementations adaptées à son profil de risque et aux attentes sociétales.

Par conséquent, une approche unique pour la gouvernance de l’IA ne fonctionne pas car les industries et les domaines de pays diffèrent dans les types de préjudices, les parties prenantes affectées et les cadres juridiques sous lesquels elles opèrent. Comme tel, il doit y avoir de la flexibilité.

Comment gérer l’IA autonome

À mesure que l’IA entre dans une nouvelle ère, passant des moteurs de prédiction étroits à l’IA agente, des systèmes capables de planifier, de s’adapter et de prendre des actions autonomes, cela comporte de nouveaux risques.

Par exemple, considérez un IA agente qui exécute de manière autonome une transaction financière ou une décision de ressources humaines. Si elle mal classe une transaction ou fait une recommandation d’embauche qui intègre des préjugés, les conséquences commerciales sont graves, allant de la perte financière aux dommages à la réputation, aux amendes réglementaires et à l’exposition juridique.

La recherche présentée dans Economic and Systemic Considerations in Agentic Web Systems explique également les nouveaux défis posés par le concept émergent de web agente, qui agit dans des marchés transfrontaliers à vitesse de machine. Il présente certains leviers de gouvernance préliminaires et directionnels, notamment des agents de garde/contrôle et des politiques lisibles par machine, en mettant l’accent sur l’adoption inclusive sous des contraintes de ressources inégales.

Face à cela, les systèmes de gouvernance devront établir des limites et des contrôles sur la façon dont un système d’IA peut gérer de manière autonome sans approbation humaine. Ils doivent établir des garde-fous clairs, limiter l’accès aux outils et aux fonctions d’autorisation, ainsi que permettre des points de conception spécifiques pour la révision humaine obligatoire. Toutes les composantes du flux de travail doivent être testées, y compris les connexions et les interactions entre les agents, où les erreurs se produisent souvent. Chaque action doit être enregistrée pour la traçabilité et des contrôles doivent être mis en place pour désactiver le système lorsque cela est nécessaire pour gérer ce risque.

Le futur de l’IA responsable

L’IA offre des opportunités sans précédent pour transformer la façon dont les entreprises opèrent, innovent, livrent de la valeur, et l’IA responsable soutient cela. Intégrer l’IA responsable dans la conception, le développement et le déploiement n’est pas seulement une tactique de gestion des risques et de mitigation, mais elle protège et améliore la réputation de la marque, gagne la confiance des clients et des clients, ainsi que débloque l’avantage sur le marché en démontrant l’engagement en faveur de l’innovation éthique.

Cependant, pour débloquer ses avantages, les entreprises doivent intégrer des pratiques responsables clés tout au long de leur système d’IA, à partir du début et jusqu’à la fin de son cycle de vie. Cela inclut l’intégration de considérations éthiques et de gouvernance dans la stratégie de données, la vie privée et la collecte, la conception de systèmes, le développement, la transparence et l’équité, le déploiement et la surveillance, ainsi que le post-déploiement et la désactivation.

Pour tous ceux qui sont impliqués dans le développement et le déploiement de l’IA, le mandat est clair : construire de manière responsable, gouverner de manière proactive, anticiper les risques d’aujourd’hui, de demain et au-delà pour assurer l’évolution réussie de l’IA dans un monde en évolution.

Dr Heather Domin, Vice President et Chef du Bureau de l'IA Responsable et de la Gouvernance chez HCLTech, est une experte de premier plan en matière d'IA Responsable, conseillant les organisations mondiales sur la gouvernance et la mise en œuvre éthiques de l'IA.