Connect with us

Leaders d’opinion

Comment l’IA explicative améliore la fiabilité et la crédibilité

mm

Alors que l’intelligence artificielle (IA) se démocratise dans les entreprises, elle s’intègre lentement dans le tissu de notre existence. Un aspect important de cette démocratisation est que les utilisateurs finaux doivent être en mesure de comprendre pleinement le processus et les mécanismes que l’IA utilise pour parvenir à une conclusion ou pour fonctionner afin de produire les résultats souhaités. En tant qu’êtres humains, nous avons un besoin profondément ancré de découvrir le « pourquoi » et le « comment » de tout phénomène, ce qui a accéléré notre progrès technologique. Dans le contexte de l’IA, cette compréhension est appelée « explicabilité ».

Pourquoi l’explicabilité est-elle nécessaire ?

Plus souvent qu’autrement, nous abordons l’IA comme une « boîte noire », où nous n’avons connaissance que des entrées et des sorties, mais où les processus utilisés nous échappent. Ce problème est aggravé par le fait que les algorithmes qui alimentent la plupart des formes d’IA populaires, telles que les systèmes de prédiction basés sur l’apprentissage automatique profond et le traitement automatique du langage naturel (TALN), sont très abstraits, même pour les praticiens les plus chevronnés.

Confiance et transparence : Pour que les utilisateurs fassent confiance aux prédictions de l’IA, celle-ci doit avoir un certain niveau d’explicabilité inhérent. Par exemple, si un praticien médical doit recommander un traitement sur la base des prédictions de l’IA, il doit être convaincu de la prédiction. Une banque doit avoir toute confiance dans la décision de rejeter ou d’approuver un prêt et être en mesure de justifier cette décision à tous les parties prenantes. Un IA utilisé pour le dépistage et le recrutement doit prouver que les mécanismes sous-jacents sont équitables et justes pour tous les groupes de candidats.

Rend l’IA plus humaine et augmente l’adoption : Dans le rapport The state of AI in 2020 de Mckinsey, nous apprenons qu’un fabricant utilise des modèles extrêmement transparents pour obtenir l’acceptation de ses ouvriers de fabrique, qui doivent faire confiance aux jugements rendus par l’IA concernant leur sécurité. Pour une adoption rapide de l’IA, obtenir l’adhésion des parties prenantes est l’obstacle majeur pour passer des solutions simples à l’échelle de l’entreprise et tirer le meilleur parti de l’investissement réalisé. Cela est en grande partie atténué si les performances sont explicables à un large public. D’un point de vue commercial, l’explicabilité améliore l’expérience utilisateur globale et augmente la satisfaction client. Selon les résultats d’une enquête menée par l’IBM Institute for Business Value, 68 % des dirigeants estiment que les clients exigeront plus d’explicabilité de l’IA au cours des trois prochaines années.

Découvrir les biais et améliorer les performances du modèle : Un développeur doit savoir comment améliorer les performances du modèle et comment exactement le déboguer et le peaufiner. Un cadre d’explicabilité clair est l’un des outils les plus importants pour effectuer l’analyse approfondie nécessaire.

Obtenir des insights plus précis et plus complets : Une vue d’ensemble à 360 degrés est nécessaire pour comprendre pleinement les prescriptions faites par l’IA. Par exemple, si l’IA est utilisée pour prendre une décision d’investissement, il faudrait également connaître la raison pour laquelle cette décision a été prise, afin de transférer cet apprentissage dans d’autres domaines et de comprendre les pièges potentiels de cette décision. Une bonne compréhension de la façon dont l’IA fonctionne permettra également aux décideurs de découvrir de nouveaux cas d’utilisation.

Réglementations et responsabilité : Plusieurs réglementations comme le RGPD obligent à un droit à l’explication, pour résoudre les problèmes de responsabilité qui découlent d’un processus de prise de décision automatisé. Dans des systèmes comme les véhicules autonomes, si quelque chose se passe mal entraînant des pertes de vies et de biens, une connaissance appropriée est nécessaire sur la cause profonde, qui sera difficile à identifier dans un système de boîte noire.

Comment l’IA peut-elle être plus explicative ?

Les systèmes d’IA explicables (XAI) sont développés à l’aide de différentes techniques qui se concentrent soit sur l’explication du modèle dans son ensemble, soit sur l’explication de la raison d’une prédiction individuelle grâce à l’aide d’un algorithme.

La plupart des techniques d’explicabilité reposent sur :

  • La désintégration d’un modèle en composants individuels)
  • La visualisation des prédictions de modèle (par exemple, si un modèle classe une voiture comme étant d’une certaine marque, il met en évidence la partie qui l’a amené à la signaler comme telle)
  • L’exploration d’explication (en utilisant des techniques d’apprentissage automatique pour trouver des données pertinentes qui expliquent la prédiction d’un algorithme d’intelligence artificielle).

Dans une technique appelée « modélisation par proxy », un modèle plus simple et plus compréhensible, comme un arbre de décision, est utilisé pour représenter approximativement le modèle d’IA plus élaboré. Ces explications simplistes donnent une idée générale du modèle à un niveau élevé, mais peuvent parfois supprimer certaines nuances.

Une autre approche est appelée « interprétabilité par conception ». Cette approche impose des contraintes dans la conception et la formation du réseau d’IA d’une nouvelle façon, qui tente de construire le réseau global à partir de morceaux plus petits et plus explicables. Cela implique un compromis entre le niveau de précision et l’explicabilité, et limite certaines approches du kit d’outils du data scientist. Cela peut également être très gourmand en calcul.

La formation et les tests de l’IA peuvent également employer des techniques de vérification de données agnostiques telles que le modèle local interprétable (LIME) et les explications additives de Shapley (SHAP), et celles-ci devraient être adaptées pour atteindre une grande précision grâce à l’utilisation du score F, de la précision et d’autres métriques. Et, bien sûr, tous les résultats devraient être surveillés et vérifiés à l’aide d’une grande variété de données. En utilisant LIME, par exemple, les organisations sont en mesure de créer des modèles temporaires qui imitent les prédictions des algorithmes non transparents comme l’apprentissage automatique. Ces modèles LIME peuvent ensuite créer une grande variété de permutations en fonction d’un ensemble de données donné et de sa sortie correspondante, qui peuvent ensuite être utilisés pour former des modèles plus simples et plus interprétables, ainsi que des listes complètes d’explications pour chaque décision et/ou prédiction. Le cadre SHAP, qui a ses fondements dans la théorie des jeux et plus précisément dans la théorie des jeux coopératifs, est un modèle qui combine l’allocation de crédit optimale avec des explications locales en utilisant les valeurs de Shapley originales de la théorie des jeux et leurs descendants.

Opérations fondées sur des principes

À un niveau plus stratégique, cependant, les cadres de fiabilité de l’IA devraient intégrer un large éventail de principes visant à garantir des résultats appropriés à la fois au début du déploiement et au fil du temps, à mesure que les modèles évoluent en présence de circonstances changeantes. Au minimum, ces cadres devraient inclure des éléments tels que :

  • Détection des biais – tous les ensembles de données doivent être nettoyés des biais et des attributs discriminatoires, puis dotés du poids et de la discrétion appropriés lors de l’application au modèle de formation ;
  • Implication humaine – les opérateurs doivent être en mesure d’examiner et d’interpréter les sorties d’algorithmes à tout moment, en particulier lorsque les modèles sont utilisés pour l’application de la loi et la préservation des libertés civiles ;
  • Justification – toutes les prédictions doivent être en mesure de résister à l’examen, ce qui nécessite naturellement un niveau élevé de transparence pour permettre aux observateurs extérieurs d’évaluer les processus et les critères utilisés pour produire les résultats ;
  • Reproductibilité – les modèles d’IA fiables doivent être cohérents dans leurs prédictions et doivent présenter des niveaux élevés de stabilité lorsqu’ils rencontrent de nouvelles données.

Mais l’XAI ne devrait pas être considéré uniquement comme un moyen d’améliorer la rentabilité, mais également pour apporter de la responsabilité et garantir que les institutions puissent expliquer et justifier l’effet de leurs créations sur la société dans son ensemble.

Balakrishna, connu sous le nom de Bali D.R., est le responsable de l'IA et de l'automatisation chez Infosys où il pilote à la fois l'automatisation interne pour Infosys et fournit des services d'automatisation indépendants en exploitant les produits pour les clients. Bali est chez Infosys depuis plus de 25 ans et a occupé des rôles de vente, de gestion de programmes et de livraison dans différents pays et secteurs d'activité.