Intelligence artificielle
Présentation de nouveaux niveaux de transparence avec l’IA – Leaders d’opinion

Par Balakrishna D R, Senior Vice President, Service Offering Head – Energy, Communications, Services, and AI and Automation services, chez Infosys.
Le 9 janvier 2020, l’Organisation mondiale de la santé a informé le public de l’épidémie de Coronavirus en Chine. Trois jours plus tôt, les Centers for Disease Control and Prevention des États-Unis avaient déjà diffusé l’information. Mais c’était une plateforme canadienne de surveillance de la santé qui les avait devancés, en envoyant un avertissement à ses clients dès le 31 décembre 2019 ! La plateforme, BlueDot, utilise des algorithmes d’intelligence artificielle pour analyser les rapports de presse en langues étrangères, les réseaux de maladies animales et végétales, ainsi que les déclarations officielles pour donner à ses clients un avertissement préalable pour éviter les zones de danger comme Wuhan.
Au cours des quelques dernières années, l’intelligence artificielle est devenue la principale source de transformation, de disruption et d’avantage concurrentiel dans l’économie en constante évolution d’aujourd’hui. De la surveillance des épidémies à la défense, en passant par les soins de santé et les véhicules autonomes, et tout ce qui se trouve entre les deux, l’IA est de plus en plus adoptée. PwC prévoit que l’IA pourrait contribuer jusqu’à 15 700 milliards de dollars à l’économie mondiale d’ici 2030, à son rythme de croissance actuel.
Pourtant, malgré tous les espoirs que l’IA apporte, elle pose encore des questions sans réponse sur la transparence et la fiabilité. Le besoin de comprendre, de prédire et de faire confiance à la capacité de prise de décision des systèmes d’IA est important, en particulier dans les domaines qui sont critiques pour la vie, la mort et le bien-être personnel.
Dans l’inconnu
Lorsque les systèmes de raisonnement automatisés ont été introduits pour la première fois pour soutenir la prise de décision, ils reposaient sur des règles créées manuellement. Même si cela facilitait leur interprétation ainsi que la modification de leur comportement, ils n’étaient pas évolutifs. Les modèles basés sur l’apprentissage automatique sont arrivés pour répondre à ce besoin ; ils n’exigeaient pas d’intervention humaine et pouvaient être formés à partir de données – plus il y en avait, mieux c’était. Même si les modèles d’apprentissage profond sont inégalés dans leur capacité de modélisation et leur étendue d’applicabilité, le fait que ces modèles soient pour la plupart des boîtes noires soulève des questions inquiétantes concernant leur véracité, leur fiabilité et leurs biais dans le contexte de leur utilisation généralisée.
Il n’existe actuellement aucun mécanisme direct pour retracer le raisonnement implicite utilisé par les modèles d’apprentissage profond. Avec les modèles d’apprentissage automatique qui ont une nature de boîte noire, le type principal d’explicabilité est appelé explicabilité a posteriori, ce qui signifie que les explications sont dérivées de la nature et des propriétés des sorties générées par le modèle. Les premières tentatives pour extraire des règles des réseaux de neurones (comme l’apprentissage profond était connu auparavant) ne sont plus poursuivies depuis que les réseaux sont devenus trop grands et diversifiés pour une extraction de règles tractable. Il y a donc un besoin urgent d’introduire l’interprétabilité et la transparence dans le tissu même de la modélisation d’IA.
Sortie de la nuit, entrée de la lumière
Cette préoccupation a créé un besoin de transparence dans l’apprentissage automatique, qui a conduit à la croissance de l’IA explicative, ou XAI. Elle cherche à résoudre les principaux problèmes qui entravent notre capacité à faire pleinement confiance à la prise de décision d’IA — y compris les biais et la transparence. Ce nouveau domaine de l’IA apporte la responsabilité pour garantir que l’IA profite à la société avec de meilleurs résultats pour toutes les parties impliquées.
L’XAI sera crucial pour aider à lutter contre les biais inhérents aux systèmes et algorithmes d’IA, qui sont programmés par des personnes dont les antécédents et les expériences conduisent involontairement au développement de systèmes d’IA qui présentent des biais. Des biais indésirables tels que la discrimination contre une nationalité ou une ethnie particulière peuvent se glisser parce que le système ajoute une valeur en fonction des données réelles. Pour illustrer, il peut être constaté que les défauts de prêt typiques proviennent d’une ethnie particulière, cependant, la mise en œuvre de toute politique restrictive basée sur cela peut être contraire aux pratiques équitables. Les données erronées sont une autre cause de biais. Par exemple, si un scanner de reconnaissance faciale est imprécis 5 % du temps en raison de la complexion de la personne ou de la lumière qui frappe le visage, cela peut introduire un biais. Enfin, si vos données d’échantillonnage ne représentent pas fidèlement la population entière, les biais sont inévitables.
L’XAI vise à résoudre la manière dont les décisions des systèmes d’IA sont prises. Elle examine et tente de comprendre les étapes et les modèles impliqués dans la prise de décision. Elle répond à des questions cruciales telles que : Pourquoi le système d’IA a-t-il fait une prédiction ou une décision spécifique ? Pourquoi le système d’IA n’a-t-il pas fait autre chose ? Quand le système d’IA a-t-il réussi ou échoué ? Quand les systèmes d’IA donnent-ils suffisamment confiance dans la décision pour que vous puissiez leur faire confiance, et comment les systèmes d’IA peuvent-ils corriger les erreurs ?
IA explicative, prévisible et traçable
Une façon d’obtenir l’explicabilité dans les systèmes d’IA est d’utiliser des algorithmes d’apprentissage automatique qui sont intrinsèquement explicables. Par exemple, des formes plus simples d’apprentissage automatique telles que les arbres de décision, les classificateurs bayésiens et d’autres algorithmes qui ont certains niveaux de traçabilité et de transparence dans leur prise de décision. Ils peuvent fournir la visibilité nécessaire pour les systèmes d’IA critiques sans sacrifier trop de performances ou de précision.
En constatant le besoin de fournir l’explicabilité pour l’apprentissage profond et d’autres approches algorithmiques plus complexes, l’Agence de recherche et de développement avancée de la défense des États-Unis (DARPA) poursuit des efforts pour produire des solutions d’IA explicative à travers plusieurs initiatives de recherche financées. La DARPA décrit l’explicabilité de l’IA en trois parties qui incluent : la précision de la prédiction, ce qui signifie que les modèles expliqueront comment les conclusions sont atteintes pour améliorer la prise de décision future ; la compréhension et la confiance de la décision des utilisateurs et opérateurs humains, ainsi que l’inspection et la traçabilité des actions entreprises par les systèmes d’IA.
La traçabilité permettra aux humains de pénétrer dans les boucles de décision d’IA et d’avoir la capacité d’arrêter ou de contrôler leurs tâches, chaque fois que cela est nécessaire. Un système d’IA est non seulement censé effectuer une tâche ou imposer des décisions, mais également fournir un rapport transparent de pourquoi il a pris des décisions spécifiques avec la raison sous-jacente.
La normalisation des algorithmes ou même des approches XAI n’est pas actuellement possible, mais il pourrait certainement être possible de normaliser les niveaux de transparence / niveaux d’explicabilité. Les organisations de normalisation tentent d’arriver à des compréhensions communes et standardisées de ces niveaux de transparence pour faciliter la communication entre les utilisateurs finals et les fournisseurs de technologie.
À mesure que les gouvernements, les institutions, les entreprises et le public en général dépendent de plus en plus des systèmes basés sur l’IA, gagner leur confiance grâce à une transparence plus claire du processus de prise de décision sera fondamental. Le lancement de la première conférence mondiale exclusivement consacrée à l’XAI, la Conférence internationale conjointe sur l’intelligence artificielle : Atelier sur l’intelligence artificielle explicative, est une preuve supplémentaire que l’ère de l’XAI est arrivée.












