Éthique
5 Piliers Fondamentaux pour Garantir un Intelligence Artificielle Responsable

Nous assistons à une croissance écrasante des systèmes d’IA/ML pour traiter les océans de données générés dans la nouvelle économie numérique. Cependant, avec cette croissance, il est nécessaire de considérer sérieusement les implications éthiques et juridiques de l’IA.
Alors que nous confions de plus en plus de tâches sophistiquées et importantes aux systèmes d’IA, comme l’approbation automatique de prêts, par exemple, nous devons être absolument certains que ces systèmes sont responsables et dignes de confiance. La réduction des biais dans l’IA est devenue un domaine de recherche massive pour de nombreux chercheurs et a d’énormes implications éthiques, tout comme le niveau d’autonomie que nous accordons à ces systèmes.
Le concept d’Intelligence Artificielle Responsable est un cadre important qui peut aider à établir la confiance dans vos déploiements d’IA. Il existe cinq piliers fondamentaux pour l’Intelligence Artificielle Responsable. Cet article explorera ces piliers pour vous aider à construire de meilleurs systèmes.
1. Reproductibilité
Il y a un vieux dicton dans le monde du développement de logiciels qui dit : « Hé, ça marche sur ma machine » Dans l’IA et l’apprentissage automatique, la phrase pourrait être modifiée pour devenir : « Hé, ça marche sur mon jeu de données ». Cela signifie que les modèles d’apprentissage automatique peuvent souvent tendre à être une boîte noire. De nombreux jeux de données d’entraînement peuvent avoir des biais inhérents tels que des biais d’échantillonnage ou des biais de confirmation qui réduisent la précision du produit final.
Pour rendre les systèmes d’IA/ML plus reproductibles, et donc plus précis et dignes de confiance, la première étape consiste à standardiser le pipeline MLOps. Même les data scientists les plus intelligents ont leurs technologies et bibliothèques préférées, ce qui signifie que l’ingénierie de fonctionnalités et les modèles résultants ne sont pas uniformes d’une personne à l’autre. En utilisant des outils tels que MLflow, vous pouvez standardiser le pipeline MLOps et réduire ces différences.
Une autre façon de rendre les systèmes d’IA/ML plus reproductibles est d’utiliser ce que l’on appelle des « jeux de données dorés ». Ce sont des jeux de données représentatifs qui agissent essentiellement comme des tests et des validations de nouveaux modèles avant leur mise en production.
2. Transparence
Comme mentionné précédemment, de nombreux modèles d’apprentissage automatique, en particulier les réseaux de neurones, sont des boîtes noires. Pour les rendre plus responsables, nous devons les rendre plus interprétables. Pour les systèmes simples tels que les arbres de décision, il est assez facile de comprendre comment et pourquoi le système a pris une certaine décision, mais à mesure que la précision et la complexité d’un système d’IA augmentent, son interprétabilité diminue souvent.
Il existe un nouveau domaine de recherche appelé « explicabilité » qui tente d’apporter de la transparence même aux systèmes d’IA complexes tels que les réseaux de neurones et l’apprentissage profond. Ces systèmes utilisent des modèles proxy pour copier les performances d’un réseau de neurones, mais ils tentent également de fournir des explications valides sur les fonctionnalités importantes.
Cela conduit à l’équité ; vous voulez savoir pourquoi une certaine décision est prise et vous assurer que cette décision est équitable. Vous voulez également vous assurer que les fonctionnalités inappropriées ne sont pas prises en compte pour que les biais ne pénètrent pas dans votre modèle.
3. Responsabilité
La responsabilité est peut-être l’aspect le plus important de l’Intelligence Artificielle Responsable. Il y a beaucoup de discussions sur ce sujet, même dans le secteur gouvernemental, car il s’agit des politiques qui détermineront les résultats de l’IA. Cette approche basée sur les politiques détermine à quel stade les humains devraient être impliqués dans le processus.
La responsabilité nécessite des moniteurs et des métriques robustes pour guider les décideurs politiques et contrôler les systèmes d’IA/ML. La responsabilité relie réellement la reproductibilité et la transparence, mais elle nécessite une surveillance efficace sous la forme de comités d’éthique de l’IA. Ces comités peuvent prendre des décisions politiques, décider de ce qui est important à mesurer et effectuer des examens d’équité.
4. Sécurité
La sécurité de l’IA se concentre sur la confidentialité et l’intégrité des données. Lorsque les systèmes traitent des données, vous voulez qu’ils soient dans un environnement sécurisé. Vous voulez que les données soient chiffrées à la fois au repos dans votre base de données et lorsqu’elles sont appelées via le pipeline, mais des vulnérabilités existent toujours lorsqu’elles sont fournies en texte brut à un modèle d’apprentissage automatique. Les technologies telles que le chiffrement homomorphique résolvent ce problème en permettant l’entraînement de l’apprentissage automatique dans un environnement chiffré.
Un autre aspect est la sécurité du modèle lui-même. Par exemple, les attaques d’inversion de modèle permettent aux pirates d’apprendre les données d’entraînement utilisées pour construire le modèle. Il existe également des attaques d’empoisonnement de modèle, qui insèrent de mauvaises données dans le modèle pendant son entraînement et endommagent complètement ses performances. Tester votre modèle pour les attaques adverses telles que celles-ci peut le garder en sécurité.
5. Vie privée
Google et OpenMined sont deux organisations qui ont récemment donné la priorité à la vie privée de l’IA, et OpenMined a organisé une conférence récente sur ce sujet. Avec de nouvelles réglementations telles que le RGPD et le CCPA, et potentiellement d’autres à venir, la vie privée jouera un rôle central dans la façon dont nous entraînons les modèles d’apprentissage automatique.
Une façon de vous assurer que vous gérez les données de vos clients de manière respectueuse de la vie privée est d’utiliser l’apprentissage fédéré. Cette méthode décentralisée d’apprentissage automatique entraîne différents modèles localement, puis les agrège dans un hub central tout en gardant les données en sécurité, sécurisées et privées. Une autre méthode consiste à introduire du bruit statistique pour que les valeurs individuelles des clients ne soient pas divulguées. Cela vous permet de travailler avec l’agrégat de sorte que les données d’un individu soient intactes et non accessibles à l’algorithme.
Maintenir l’IA Responsable
En fin de compte, maintenir l’IA responsable incombe à chaque organisation qui conçoit des systèmes d’IA/ML. En poursuivant intentionnellement les technologies au sein de chacun de ces cinq aspects de l’Intelligence Artificielle Responsable, vous pouvez non seulement bénéficier de la puissance de l’intelligence artificielle, mais le faire de manière fiable et transparente qui rassurera votre organisation, vos clients et les régulateurs.












