Des leaders d'opinion
IA explicable à l'aide de formules booléennes expressives

L’explosion de l’intelligence artificielle (IA) et des applications d’apprentissage automatique imprègne presque tous les secteurs et toutes les tranches de vie.
Mais sa croissance ne va pas sans ironie. Bien que l'IA existe pour simplifier et/ou accélérer la prise de décision ou les flux de travail, la méthodologie pour le faire est souvent extrêmement complexe. En effet, certains algorithmes d'apprentissage automatique «boîte noire» sont si complexes et multiformes qu'ils peuvent défier toute explication simple, même par les informaticiens qui les ont créés.
Cela peut être assez problématique lorsque certains cas d'utilisation - comme dans les domaines de la finance et de la médecine - sont définis par les meilleures pratiques de l'industrie ou les réglementations gouvernementales qui nécessitent des explications transparentes sur le fonctionnement interne des solutions d'IA. Et si ces applications ne sont pas suffisamment expressives pour répondre aux exigences d'explicabilité, elles peuvent être rendues inutiles quelle que soit leur efficacité globale.
Pour répondre à cette énigme, notre équipe du Centre de fidélité pour la technologie appliquée (FCAT) — en collaboration avec Amazon Quantum Solutions Lab — a proposé et mis en œuvre un modèle d'apprentissage automatique interprétable pour l'IA explicable (XAI) basé sur des formules booléennes expressives. Une telle approche peut inclure n'importe quel opérateur pouvant être appliqué à une ou plusieurs variables booléennes, offrant ainsi une expressivité plus élevée par rapport aux approches plus rigides basées sur des règles et des arbres.
Vous pouvez lire le papier complet ici pour plus de détails sur ce projet.
Notre hypothèse était que puisque les modèles - tels que les arbres de décision - peuvent devenir profonds et difficiles à interpréter, la nécessité de trouver une règle expressive avec une faible complexité mais une grande précision était un problème d'optimisation insoluble qui devait être résolu. De plus, en simplifiant le modèle grâce à cette approche XAI avancée, nous pourrions obtenir des avantages supplémentaires, tels que l'exposition de biais importants dans le contexte d'une utilisation éthique et responsable du ML ; tout en facilitant la maintenance et l'amélioration du modèle.
Nous avons proposé une approche basée sur des formules booléennes expressives car elles définissent des règles avec une complexité accordable (ou interprétabilité) selon lesquelles les données d'entrée sont classées. Une telle formule peut inclure n'importe quel opérateur pouvant être appliqué à une ou plusieurs variables booléennes (telles que And ou AtLeast), offrant ainsi une expressivité plus élevée par rapport à des méthodologies plus rigides basées sur des règles et des arbres.
Dans ce problème, nous avons deux objectifs concurrents : maximiser les performances de l'algorithme, tout en minimisant sa complexité. Ainsi, plutôt que d'adopter l'approche typique consistant à appliquer l'une des deux méthodes d'optimisation – combinant plusieurs objectifs en un seul ou contraignant l'un des objectifs – nous avons choisi d'inclure les deux dans notre formulation. Ce faisant, et sans perte de généralité, nous utilisons principalement la précision équilibrée comme mesure de performance globale.
De plus, en incluant des opérateurs comme AtLeast, nous étions motivés par l'idée de répondre au besoin de listes de contrôle hautement interprétables, comme une liste de symptômes médicaux qui signifient une condition particulière. Il est concevable qu'une décision soit prise en utilisant une telle liste de contrôle des symptômes d'une manière par laquelle un nombre minimum devrait être présent pour un diagnostic positif. De même, en finance, une banque peut décider d'accorder ou non un crédit à un client en fonction de la présence d'un certain nombre de facteurs parmi une liste plus large.
Nous avons mis en œuvre avec succès notre modèle XAI et l'avons comparé à certains ensembles de données publiques pour le crédit, le comportement des clients et les conditions médicales. Nous avons constaté que notre modèle est généralement compétitif avec d'autres alternatives bien connues. Nous avons également constaté que notre modèle XAI peut potentiellement être alimenté par du matériel à usage spécial ou des dispositifs quantiques pour résoudre rapidement la programmation linéaire entière (ILP) ou l'optimisation binaire quadratique sans contrainte (QUBO). L'ajout de solveurs QUBO réduit le nombre d'itérations - conduisant ainsi à une accélération par proposition rapide de mouvements non locaux.
Comme indiqué, les modèles d'IA explicables utilisant des formules booléennes peuvent avoir de nombreuses applications dans les soins de santé et dans le domaine de la finance de Fidelity (comme la notation de crédit ou pour évaluer pourquoi certains clients peuvent avoir sélectionné un produit alors que d'autres ne l'ont pas fait). En créant ces règles interprétables, nous pouvons atteindre des niveaux d'informations plus élevés qui peuvent conduire à des améliorations futures dans le développement ou le raffinement des produits, ainsi qu'à l'optimisation des campagnes marketing.
Sur la base de nos conclusions, nous avons déterminé que l'IA explicable utilisant des formules booléennes expressives est à la fois appropriée et souhaitable pour les cas d'utilisation qui nécessitent une explicabilité plus poussée. De plus, à mesure que l'informatique quantique continue de se développer, nous prévoyons la possibilité d'obtenir des accélérations potentielles en l'utilisant ainsi que d'autres accélérateurs matériels à usage spécifique.
Les travaux futurs pourraient se concentrer sur l'application de ces classificateurs à d'autres ensembles de données, l'introduction de nouveaux opérateurs ou l'application de ces concepts à d'autres cas d'utilisation.












