Suivez nous sur

Qu'est-ce que l'IA explicable ?

AI 101

Qu'est-ce que l'IA explicable ?

mm
Image : DeepMind sur Unsplash

Alors que l'intelligence artificielle (IA) devient plus complexe et largement adoptĂ©e dans la sociĂ©tĂ©, l'un des ensembles de processus et de mĂ©thodes les plus critiques est explicable (IA), parfois appelĂ© XAI. 

L'IA explicable peut ĂŞtre dĂ©finie comme :

  • Un ensemble de processus et de mĂ©thodes qui aident les utilisateurs humains Ă  comprendre et Ă  faire confiance aux rĂ©sultats des algorithmes d'apprentissage automatique. 

Comme vous pouvez le deviner, cette explicabilitĂ© est extrĂŞmement importante car les algorithmes d'IA prennent le contrĂ´le de nombreux secteurs, ce qui comporte un risque de biais, d'algorithmes dĂ©fectueux et d'autres problèmes. En atteignant la transparence avec l'explicabilitĂ©, le monde peut vraiment tirer parti de la puissance de l'IA. 

L'IA explicable, comme son nom l'indique, aide Ă  dĂ©crire un modèle d'IA, son impact et ses biais potentiels. Il joue Ă©galement un rĂ´le dans la caractĂ©risation de la prĂ©cision, de l'Ă©quitĂ©, de la transparence et des rĂ©sultats des modèles dans les processus dĂ©cisionnels basĂ©s sur l'IA. 

Les organisations d'aujourd'hui axées sur l'IA doivent toujours adopter des processus d'IA explicables pour aider à renforcer la confiance dans les modèles d'IA en production. L'IA explicable est également essentielle pour devenir une entreprise responsable dans l'environnement actuel de l'IA.

Parce que les systèmes d'IA d'aujourd'hui sont si avancĂ©s, les humains effectuent gĂ©nĂ©ralement un processus de calcul pour retracer comment l'algorithme est arrivĂ© Ă  son rĂ©sultat. Ce processus devient une «boĂ®te noire», ce qui signifie qu'il est impossible Ă  comprendre. Lorsque ces modèles inexplicables sont dĂ©veloppĂ©s directement Ă  partir de donnĂ©es, personne ne peut comprendre ce qui s'y passe. 

En comprenant comment les systèmes d'IA fonctionnent grâce Ă  une IA explicable, les dĂ©veloppeurs peuvent s'assurer que le système fonctionne comme il se doit. Cela peut Ă©galement aider Ă  garantir que le modèle respecte les normes rĂ©glementaires et offre la possibilitĂ© de remettre en question ou de modifier le modèle. 

Image : Dr Matt Turek/DARPA

Différences entre IA et XAI

Certaines diffĂ©rences clĂ©s aident Ă  sĂ©parer l'IA "normale" de l'IA explicable, mais plus important encore, XAI met en Ĺ“uvre des techniques et des mĂ©thodes spĂ©cifiques qui permettent de garantir que chaque dĂ©cision dans le processus de ML est traçable et explicable. En comparaison, l'IA ordinaire arrive gĂ©nĂ©ralement Ă  son rĂ©sultat Ă  l'aide d'un algorithme ML, mais il est impossible de comprendre pleinement comment l'algorithme est arrivĂ© au rĂ©sultat. Dans le cas de l'IA standard, il est extrĂŞmement difficile de vĂ©rifier l'exactitude, ce qui entraĂ®ne une perte de contrĂ´le, de responsabilitĂ© et de vĂ©rifiabilitĂ©. 

Avantages de l'IA explicable 

Toute organisation souhaitant adopter une IA explicable prĂ©sente de nombreux avantages, tels que : 

  • RĂ©sultats plus rapides : L'IA explicable permet aux organisations de surveiller et de gĂ©rer systĂ©matiquement les modèles afin d'optimiser les rĂ©sultats commerciaux. Il est possible d'Ă©valuer et d'amĂ©liorer en permanence les performances du modèle et d'affiner le dĂ©veloppement du modèle.
  • AttĂ©nuer les risques : En adoptant des processus d'IA explicables, vous vous assurez que vos modèles d'IA sont explicables et transparents. Vous pouvez gĂ©rer la rĂ©glementation, la conformitĂ©, les risques et d'autres exigences tout en minimisant les frais gĂ©nĂ©raux de l'inspection manuelle. Tout cela contribue Ă©galement Ă  attĂ©nuer le risque de biais involontaire. 
  • Bâtir la confiance : L'IA explicable aide Ă  Ă©tablir la confiance dans l'IA de production. Les modèles d'IA peuvent ĂŞtre rapidement mis en production, vous pouvez garantir l'interprĂ©tabilitĂ© et l'explicabilitĂ©, et le processus d'Ă©valuation des modèles peut ĂŞtre simplifiĂ© et rendu plus transparent. 

Techniques pour une IA explicable

Il existe certaines techniques XAI que toutes les organisations devraient envisager, et elles consistent en trois mĂ©thodes principales : prĂ©cision de la prĂ©diction, traçabilitĂ© debauen dĂ©cision comprĂ©hension

La première des trois mĂ©thodes, prĂ©cision de la prĂ©diction, est essentiel pour utiliser avec succès l'IA dans les opĂ©rations quotidiennes. Des simulations peuvent ĂŞtre effectuĂ©es et la sortie XAI peut ĂŞtre comparĂ©e aux rĂ©sultats de l'ensemble de donnĂ©es d'apprentissage, ce qui permet de dĂ©terminer la prĂ©cision de la prĂ©diction. L'une des techniques les plus populaires pour y parvenir est appelĂ©e LIME (Local Interpretable Model-Agnostic Explanations), une technique qui explique la prĂ©diction des classificateurs par l'algorithme d'apprentissage automatique. 

La deuxième mĂ©thode est traçabilitĂ© de, ce qui est rĂ©alisĂ© en limitant la façon dont les dĂ©cisions peuvent ĂŞtre prises, ainsi qu'en Ă©tablissant une portĂ©e plus Ă©troite pour les règles et les fonctionnalitĂ©s d'apprentissage automatique. L'une des techniques de traçabilitĂ© les plus courantes est DeepLIFT, ou Deep Learning Important FeaTures. DeepLIFT compare l'activation de chaque neurone Ă  son neurone de rĂ©fĂ©rence tout en dĂ©montrant un lien traçable entre chaque neurone activĂ©. Il montre Ă©galement les dĂ©pendances entre eux. 

La troisième et dernière mĂ©thode est dĂ©cision comprĂ©hension, qui est centrĂ© sur l'humain, contrairement aux deux autres mĂ©thodes. La comprĂ©hension de la dĂ©cision implique d'Ă©duquer l'organisation, en particulier l'Ă©quipe travaillant avec l'IA, pour leur permettre de comprendre comment et pourquoi l'IA prend des dĂ©cisions. Cette mĂ©thode est cruciale pour Ă©tablir la confiance dans le système. 

Principes d'IA explicables

Pour fournir une meilleure comprĂ©hension de XAI et de ses principes, le National Institute of Standards (NIST), qui fait partie du dĂ©partement amĂ©ricain du Commerce, fournit des dĂ©finitions pour quatre principes d'IA explicable : 

  1. Un système d'IA doit fournir des preuves, un soutien ou un raisonnement pour chaque sortie. 
  2. Un système d'IA doit donner des explications comprĂ©hensibles par ses utilisateurs. 
  3. L'explication doit reflĂ©ter avec prĂ©cision le processus utilisĂ© par le système pour arriver Ă  sa sortie. 
  4. Le système d'IA ne devrait fonctionner que dans les conditions pour lesquelles il a Ă©tĂ© conçu, et il ne devrait pas fournir de sortie lorsqu'il n'a pas suffisamment confiance dans le rĂ©sultat. 

Ces principes peuvent encore ĂŞtre organisĂ©s en : 

  • Significatif: Pour atteindre le principe de signification, un utilisateur doit comprendre l'explication fournie. Cela pourrait Ă©galement signifier que dans le cas d'un algorithme d'IA utilisĂ© par diffĂ©rents types d'utilisateurs, il pourrait y avoir plusieurs explications. Par exemple, dans le cas d'une voiture autonome, une explication pourrait aller dans le sens de… "l'IA a classĂ© le sac en plastique sur la route comme un rocher, et a donc pris des mesures pour Ă©viter de le heurter". Bien que cet exemple fonctionne pour le pilote, il ne serait pas très utile pour un dĂ©veloppeur d'IA cherchant Ă  corriger le problème. Dans ce cas, le dĂ©veloppeur doit comprendre pourquoi il y a eu une mauvaise classification. 
  • Explication PrĂ©cision : Contrairement Ă  la prĂ©cision de sortie, la prĂ©cision de l'explication implique que l'algorithme d'IA explique avec prĂ©cision comment il a atteint sa sortie. Par exemple, si un algorithme d'approbation de prĂŞt explique une dĂ©cision basĂ©e sur le revenu d'une demande alors qu'en fait, elle Ă©tait basĂ©e sur le lieu de rĂ©sidence du demandeur, l'explication serait inexacte. 
  • Limites des connaissances : Les limites de connaissance de l'IA peuvent ĂŞtre atteintes de deux manières, et cela implique que l'entrĂ©e soit en dehors de l'expertise du système. Par exemple, si un système est construit pour classer les espèces d'oiseaux et qu'on lui donne l'image d'une pomme, il devrait pouvoir expliquer que l'entrĂ©e n'est pas un oiseau. Si le système reçoit une image floue, il devrait ĂŞtre en mesure de signaler qu'il est incapable d'identifier l'oiseau sur l'image, ou alternativement, que son identification est très peu fiable. 

Le rôle des données dans l'IA explicable

Les donnĂ©es sont l'un des composants les plus importants de l'IA explicable. 

D’après Google, concernant les donnĂ©es et l'IA explicable, "un système d'IA est mieux compris par les donnĂ©es de formation sous-jacentes et le processus de formation, ainsi que par le modèle d'IA qui en rĂ©sulte." Cette comprĂ©hension dĂ©pend de la capacitĂ© Ă  mapper un modèle d'IA entraĂ®nĂ© Ă  l'ensemble de donnĂ©es exact utilisĂ© pour l'entraĂ®ner, ainsi que de la capacitĂ© Ă  examiner les donnĂ©es de près. 

Pour amĂ©liorer l'explicabilitĂ© d'un modèle, il est important de prĂŞter attention aux donnĂ©es de formation. Les Ă©quipes doivent dĂ©terminer l'origine des donnĂ©es utilisĂ©es pour former un algorithme, la lĂ©galitĂ© et l'Ă©thique entourant son obtention, tout biais potentiel dans les donnĂ©es et ce qui peut ĂŞtre fait pour attĂ©nuer tout biais. 

Un autre aspect critique des donnĂ©es et de XAI est que les donnĂ©es non pertinentes pour le système doivent ĂŞtre exclues. Pour ce faire, les donnĂ©es non pertinentes ne doivent pas ĂŞtre incluses dans l'ensemble d'apprentissage ou les donnĂ©es d'entrĂ©e. 

Google a recommandĂ© un ensemble de pratiques pour atteindre l'interprĂ©tabilitĂ© et la responsabilitĂ© : 

  • Planifiez vos options pour poursuivre l'interprĂ©tabilitĂ©
  • Traiter l'interprĂ©tabilitĂ© comme un Ă©lĂ©ment central de l'expĂ©rience utilisateur
  • Concevoir le modèle pour qu'il soit interprĂ©table
  • Choisissez des mĂ©triques pour reflĂ©ter l'objectif final et la tâche finale
  • Comprendre le modèle entraĂ®nĂ©
  • Communiquer des explications aux utilisateurs du modèle
  • Effectuer de nombreux tests pour s'assurer que le système d'IA fonctionne comme prĂ©vu 

En suivant ces pratiques recommandĂ©es, votre organisation peut s'assurer qu'elle atteint une IA explicable, ce qui est essentiel pour toute organisation axĂ©e sur l'IA dans l'environnement actuel. 

 

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.