Intelligence artificielle
Les chercheurs développent l’outil “DeepTrust” pour aider à augmenter la fiabilité de l’IA

La sécurité et la fiabilité de l’intelligence artificielle (IA) constituent l’un des aspects les plus importants de la technologie. Elle est constamment améliorée et travaillée par les meilleurs experts dans les différents domaines, et elle sera cruciale pour la mise en œuvre complète de l’IA dans la société.
Certaines de ces nouvelles recherches proviennent de l’Université de Californie du Sud, où les chercheurs de l’USC Viterbi Engineering ont développé un nouvel outil capable de générer des indicateurs automatiques pour déterminer si les algorithmes d’IA sont fiables dans leurs données et prévisions.
La recherche a été publiée dans Frontiers in Artificial Intelligence, intitulée « Il y a de l’espoir après tout : quantification de l’opinion et de la fiabilité dans les réseaux de neurones ». Les auteurs de l’article comprennent Mingxi Cheng, Shahin Nazarian et Paul Bogdan du groupe USC Cyber Physical Systems.
Fiabilité des réseaux de neurones
L’une des tâches les plus importantes dans ce domaine consiste à faire en sorte que les réseaux de neurones génèrent des prévisions fiables. Dans de nombreux cas, c’est ce qui empêche l’adoption complète de la technologie qui repose sur l’IA.
Par exemple, les véhicules autonomes doivent agir de manière indépendante et prendre des décisions précises en mode automatique. Ils doivent être capables de prendre ces décisions extrêmement rapidement, tout en déchiffrant et en reconnaissant les objets sur la route. C’est crucial, en particulier dans les scénarios où la technologie devrait déchiffrer la différence entre un dos d’âne, un autre objet ou un être vivant.
D’autres scénarios incluent le véhicule autonome qui décide quoi faire lorsqu’un autre véhicule se présente face à lui, et la décision la plus complexe de toutes est si le véhicule autonome doit décider entre heurter ce qu’il perçoit comme un autre véhicule, un objet ou un être vivant.
Tout cela signifie que nous plaçons une confiance extrême dans la capacité du logiciel du véhicule autonome à prendre la bonne décision en quelques fractions de seconde. Cela devient encore plus difficile lorsqu’il y a des informations contradictoires provenant de différents capteurs, tels que la vision par ordinateur à partir de caméras et de Lidar.
L’auteur principal Minxi Cheng a décidé de se lancer dans ce projet en pensant : « Même les humains peuvent être indécis dans certains scénarios de prise de décision. Dans les cas impliquant des informations contradictoires, pourquoi les machines ne peuvent-elles pas nous dire qu’elles ne savent pas ? »
DeepTrust
L’outil créé par les chercheurs s’appelle DeepTrust, et il est capable de quantifier le montant d’incertitude, selon Paul Bogdan, professeur associé au département de génie électrique et informatique Ming Hsieh.
L’équipe a passé près de deux ans à développer DeepTrust, principalement en utilisant la logique subjective pour évaluer les réseaux de neurones. Dans un exemple de fonctionnement de l’outil, il a pu examiner les sondages de l’élection présidentielle de 2016 et prédire qu’il y avait une marge d’erreur plus grande pour la victoire de Hillary Clinton.
L’outil DeepTrust facilite également la vérification de la fiabilité des algorithmes d’IA normalement formés sur jusqu’à des millions de points de données. L’autre moyen de procéder consiste à vérifier de manière indépendante chacun des points de données pour tester l’exactitude, ce qui est une tâche extrêmement fastidieuse.
Selon les chercheurs, l’architecture de ces systèmes de réseaux de neurones est plus précise, et la précision et la fiabilité peuvent être maximisées simultanément.
« À notre connaissance, il n’y a pas de modèle ou d’outil de quantification de la confiance pour l’apprentissage automatique, l’intelligence artificielle et le machine learning. Il s’agit de la première approche et ouvre de nouvelles directions de recherche », déclare Bogdan.
Bogdan estime également que DeepTrust pourrait aider à faire progresser l’IA jusqu’au point où elle est « consciente et adaptable ».










