talon Qu'est-ce que l'IA explicable ? - Unite.AI
Suivez nous sur
Classe de maître IA :

AI 101

Qu'est-ce que l'IA explicable ?

Le kit de préparation mis à jour on
Image : DeepMind sur Unsplash

Alors que l'intelligence artificielle (IA) devient plus complexe et largement adoptée dans la société, l'un des ensembles de processus et de méthodes les plus critiques est explicable (IA), parfois appelé XAI. 

L'IA explicable peut être définie comme :

  • Un ensemble de processus et de méthodes qui aident les utilisateurs humains à comprendre et à faire confiance aux résultats des algorithmes d'apprentissage automatique. 

Comme vous pouvez le deviner, cette explicabilité est extrêmement importante car les algorithmes d'IA prennent le contrôle de nombreux secteurs, ce qui comporte un risque de biais, d'algorithmes défectueux et d'autres problèmes. En atteignant la transparence avec l'explicabilité, le monde peut vraiment tirer parti de la puissance de l'IA. 

L'IA explicable, comme son nom l'indique, aide à décrire un modèle d'IA, son impact et ses biais potentiels. Il joue également un rôle dans la caractérisation de la précision, de l'équité, de la transparence et des résultats des modèles dans les processus décisionnels basés sur l'IA. 

Les organisations d'aujourd'hui axées sur l'IA doivent toujours adopter des processus d'IA explicables pour aider à renforcer la confiance dans les modèles d'IA en production. L'IA explicable est également essentielle pour devenir une entreprise responsable dans l'environnement actuel de l'IA.

Parce que les systèmes d'IA d'aujourd'hui sont si avancés, les humains effectuent généralement un processus de calcul pour retracer comment l'algorithme est arrivé à son résultat. Ce processus devient une «boîte noire», ce qui signifie qu'il est impossible à comprendre. Lorsque ces modèles inexplicables sont développés directement à partir de données, personne ne peut comprendre ce qui s'y passe. 

En comprenant comment les systèmes d'IA fonctionnent grâce à une IA explicable, les développeurs peuvent s'assurer que le système fonctionne comme il se doit. Cela peut également aider à garantir que le modèle respecte les normes réglementaires et offre la possibilité de remettre en question ou de modifier le modèle. 

Image : Dr Matt Turek/DARPA

Différences entre IA et XAI

Certaines différences clés aident à séparer l'IA "normale" de l'IA explicable, mais plus important encore, XAI met en œuvre des techniques et des méthodes spécifiques qui permettent de garantir que chaque décision dans le processus de ML est traçable et explicable. En comparaison, l'IA ordinaire arrive généralement à son résultat à l'aide d'un algorithme ML, mais il est impossible de comprendre pleinement comment l'algorithme est arrivé au résultat. Dans le cas de l'IA standard, il est extrêmement difficile de vérifier l'exactitude, ce qui entraîne une perte de contrôle, de responsabilité et de vérifiabilité. 

Avantages de l'IA explicable 

Toute organisation souhaitant adopter une IA explicable présente de nombreux avantages, tels que : 

  • Résultats plus rapides : L'IA explicable permet aux organisations de surveiller et de gérer systématiquement les modèles afin d'optimiser les résultats commerciaux. Il est possible d'évaluer et d'améliorer en permanence les performances du modèle et d'affiner le développement du modèle.
  • Atténuer les risques : En adoptant des processus d'IA explicables, vous vous assurez que vos modèles d'IA sont explicables et transparents. Vous pouvez gérer la réglementation, la conformité, les risques et d'autres exigences tout en minimisant les frais généraux de l'inspection manuelle. Tout cela contribue également à atténuer le risque de biais involontaire. 
  • Bâtir la confiance : L'IA explicable aide à établir la confiance dans l'IA de production. Les modèles d'IA peuvent être rapidement mis en production, vous pouvez garantir l'interprétabilité et l'explicabilité, et le processus d'évaluation des modèles peut être simplifié et rendu plus transparent. 

Techniques pour une IA explicable

Il existe certaines techniques XAI que toutes les organisations devraient envisager, et elles consistent en trois méthodes principales : précision de la prédiction, traçabilité deet une décision compréhension

La première des trois méthodes, précision de la prédiction, est essentiel pour utiliser avec succès l'IA dans les opérations quotidiennes. Des simulations peuvent être effectuées et la sortie XAI peut être comparée aux résultats de l'ensemble de données d'apprentissage, ce qui permet de déterminer la précision de la prédiction. L'une des techniques les plus populaires pour y parvenir est appelée LIME (Local Interpretable Model-Agnostic Explanations), une technique qui explique la prédiction des classificateurs par l'algorithme d'apprentissage automatique. 

La deuxième méthode est traçabilité de, ce qui est réalisé en limitant la façon dont les décisions peuvent être prises, ainsi qu'en établissant une portée plus étroite pour les règles et les fonctionnalités d'apprentissage automatique. L'une des techniques de traçabilité les plus courantes est DeepLIFT, ou Deep Learning Important FeaTures. DeepLIFT compare l'activation de chaque neurone à son neurone de référence tout en démontrant un lien traçable entre chaque neurone activé. Il montre également les dépendances entre eux. 

La troisième et dernière méthode est décision compréhension, qui est centré sur l'humain, contrairement aux deux autres méthodes. La compréhension de la décision implique d'éduquer l'organisation, en particulier l'équipe travaillant avec l'IA, pour leur permettre de comprendre comment et pourquoi l'IA prend des décisions. Cette méthode est cruciale pour établir la confiance dans le système. 

Principes d'IA explicables

Pour fournir une meilleure compréhension de XAI et de ses principes, le National Institute of Standards (NIST), qui fait partie du département américain du Commerce, fournit des définitions pour quatre principes d'IA explicable : 

  1. Un système d'IA doit fournir des preuves, un soutien ou un raisonnement pour chaque sortie. 
  2. Un système d'IA doit donner des explications compréhensibles par ses utilisateurs. 
  3. L'explication doit refléter avec précision le processus utilisé par le système pour arriver à sa sortie. 
  4. Le système d'IA ne devrait fonctionner que dans les conditions pour lesquelles il a été conçu, et il ne devrait pas fournir de sortie lorsqu'il n'a pas suffisamment confiance dans le résultat. 

Ces principes peuvent encore être organisés en : 

  • Significatif: Pour atteindre le principe de signification, un utilisateur doit comprendre l'explication fournie. Cela pourrait également signifier que dans le cas d'un algorithme d'IA utilisé par différents types d'utilisateurs, il pourrait y avoir plusieurs explications. Par exemple, dans le cas d'une voiture autonome, une explication pourrait aller dans le sens de… "l'IA a classé le sac en plastique sur la route comme un rocher, et a donc pris des mesures pour éviter de le heurter". Bien que cet exemple fonctionne pour le pilote, il ne serait pas très utile pour un développeur d'IA cherchant à corriger le problème. Dans ce cas, le développeur doit comprendre pourquoi il y a eu une mauvaise classification. 
  • Explication Précision : Contrairement à la précision de sortie, la précision de l'explication implique que l'algorithme d'IA explique avec précision comment il a atteint sa sortie. Par exemple, si un algorithme d'approbation de prêt explique une décision basée sur le revenu d'une demande alors qu'en fait, elle était basée sur le lieu de résidence du demandeur, l'explication serait inexacte. 
  • Limites des connaissances : Les limites de connaissance de l'IA peuvent être atteintes de deux manières, et cela implique que l'entrée soit en dehors de l'expertise du système. Par exemple, si un système est construit pour classer les espèces d'oiseaux et qu'on lui donne l'image d'une pomme, il devrait pouvoir expliquer que l'entrée n'est pas un oiseau. Si le système reçoit une image floue, il devrait être en mesure de signaler qu'il est incapable d'identifier l'oiseau sur l'image, ou alternativement, que son identification est très peu fiable. 

Le rôle des données dans l'IA explicable

Les données sont l'un des composants les plus importants de l'IA explicable. 

Selon Google, concernant les données et l'IA explicable, "un système d'IA est mieux compris par les données de formation sous-jacentes et le processus de formation, ainsi que par le modèle d'IA qui en résulte." Cette compréhension dépend de la capacité à mapper un modèle d'IA entraîné à l'ensemble de données exact utilisé pour l'entraîner, ainsi que de la capacité à examiner les données de près. 

Pour améliorer l'explicabilité d'un modèle, il est important de prêter attention aux données de formation. Les équipes doivent déterminer l'origine des données utilisées pour former un algorithme, la légalité et l'éthique entourant son obtention, tout biais potentiel dans les données et ce qui peut être fait pour atténuer tout biais. 

Un autre aspect critique des données et de XAI est que les données non pertinentes pour le système doivent être exclues. Pour ce faire, les données non pertinentes ne doivent pas être incluses dans l'ensemble d'apprentissage ou les données d'entrée. 

Google a recommandé un ensemble de pratiques pour atteindre l'interprétabilité et la responsabilité : 

  • Planifiez vos options pour poursuivre l'interprétabilité
  • Traiter l'interprétabilité comme un élément central de l'expérience utilisateur
  • Concevoir le modèle pour qu'il soit interprétable
  • Choisissez des métriques pour refléter l'objectif final et la tâche finale
  • Comprendre le modèle entraîné
  • Communiquer des explications aux utilisateurs du modèle
  • Effectuer de nombreux tests pour s'assurer que le système d'IA fonctionne comme prévu 

En suivant ces pratiques recommandées, votre organisation peut s'assurer qu'elle atteint une IA explicable, ce qui est essentiel pour toute organisation axée sur l'IA dans l'environnement actuel. 

 

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.