Connect with us

Google Crée Un Nouveau Programme d’Intelligence Artificielle Explicable Pour Améliorer La Transparence et La Débogabilité

Intelligence artificielle

Google Crée Un Nouveau Programme d’Intelligence Artificielle Explicable Pour Améliorer La Transparence et La Débogabilité

mm

Tout récemment, Google a annoncé la création d’une nouvelle plateforme cloud destinée à faciliter la compréhension de la manière dont un programme d’intelligence artificielle prend des décisions, rendant ainsi le débogage d’un programme plus facile et améliorant la transparence. Comme le rapporte The Register, la plateforme cloud s’appelle Explainable AI, et elle marque une tentative majeure de la part de Google pour investir dans l’explicabilité de l’IA.

Les réseaux de neurones artificiels sont utilisés dans de nombreux, peut-être la plupart, des principaux systèmes d’IA employés dans le monde aujourd’hui. Les réseaux de neurones qui alimentent les principales applications d’IA peuvent être extrêmement complexes et grands, et à mesure que la complexité d’un système augmente, il devient de plus en plus difficile de comprendre pourquoi une décision particulière a été prise par le système. Comme Google l’explique dans son livre blanc, à mesure que les systèmes d’IA deviennent plus puissants, ils deviennent également plus complexes et donc plus difficiles à déboguer. La transparence est également perdue lorsqu’il en va ainsi, ce qui signifie que les algorithmes biaisés peuvent être difficiles à reconnaître et à résoudre.

Le fait que la logique qui détermine le comportement des systèmes complexes soit si difficile à interpréter a souvent des conséquences dramatiques. En plus de rendre difficile la lutte contre les biais de l’IA, cela peut rendre extrêmement difficile de distinguer les corrélations spuriques des corrélations vraiment importantes et intéressantes.

De nombreuses entreprises et groupes de recherche explorent comment résoudre le problème de la “boîte noire” de l’IA et créer un système qui explique adéquatement pourquoi certaines décisions ont été prises par un système d’IA. La plateforme Explainable AI de Google représente sa propre tentative pour relever ce défi. Explainable AI est composé de trois outils différents. Le premier outil est un système qui décrit quelles fonctionnalités ont été sélectionnées par un système d’IA et qui affiche également un score d’attribution qui représente le montant d’influence qu’une fonctionnalité particulière a sur la prédiction finale. Le rapport de Google sur l’outil donne un exemple de prédiction de la durée d’une balade à vélo en fonction de variables telles que les précipitations, la température actuelle, le jour de la semaine et l’heure de départ. Après que le réseau ait rendu la décision, des commentaires sont fournis qui affichent quelles fonctionnalités ont eu le plus d’impact sur les prédictions.

Comment cet outil fournit-il de tels commentaires dans le cas de données d’image ? Dans ce cas, l’outil produit une superposition qui met en évidence les régions de l’image qui ont pesé le plus lourdement sur la décision rendue.

Un autre outil trouvé dans le kit est l’outil “What-If”, qui affiche les fluctuations potentielles de la performance du modèle à mesure que les attributs individuels sont manipulés. Enfin, le dernier outil peut être configuré pour fournir des résultats d’échantillonnage aux réviseurs humains à un rythme régulier.

Le Dr Andrew Moore, chef scientifique de Google pour l’IA et l’apprentissage automatique, a décrit l’inspiration derrière le projet. Moore a expliqué qu’il y a environ cinq ans, la communauté universitaire a commencé à s’inquiéter des effets secondaires nocifs de l’utilisation de l’IA et que Google voulait s’assurer que ses systèmes n’étaient utilisés que de manière éthique. Moore a décrit un incident où l’entreprise essayait de concevoir un programme de vision par ordinateur pour avertir les travailleurs de la construction si quelqu’un ne portait pas de casque, mais ils ont été préoccupés que la surveillance puisse être poussée trop loin et devenir déshumanisante. Moore a déclaré qu’il y avait une raison similaire pour laquelle Google a décidé de ne pas publier une API de reconnaissance faciale générale, car l’entreprise voulait avoir plus de contrôle sur la façon dont sa technologie était utilisée et s’assurer qu’elle n’était utilisée que de manière éthique.

Moore a également souligné pourquoi il était si important que les décisions de l’IA soient explicables :

“Si vous avez un système critique de sécurité ou une chose sociétalement importante qui peut avoir des conséquences involontaires si vous pensez que votre modèle a fait une erreur, vous devez être en mesure de le diagnostiquer. Nous voulons expliquer soigneusement ce que l’explicabilité peut et ne peut pas faire. Ce n’est pas un remède miracle.”

Blogueur et programmeur avec des spécialités en Machine Learning et Deep Learning sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.