Suivez nous sur

Des chercheurs en IA développent une méthode rapide de calcul des intervalles de confiance, signalant quand le modèle ne devrait pas être fiable

Intelligence Artificielle

Des chercheurs en IA développent une méthode rapide de calcul des intervalles de confiance, signalant quand le modèle ne devrait pas être fiable

mm

Des chercheurs du MIT ont récemment développé une technique qui permet aux modèles de réseau d'apprentissage en profondeur de calculer rapidement les niveaux de confiance, ce qui pourrait aider les scientifiques des données et les autres utilisateurs de l'IA à savoir quand faire confiance aux prédictions rendues par un modèle.

Les systèmes d’IA basés sur des réseaux de neurones artificiels sont aujourd’hui responsables de plus en plus de décisions, y compris de nombreuses décisions qui concernent la santé et la sécurité des personnes. Pour cette raison, les réseaux de neurones devraient disposer d’une méthode pour estimer la confiance dans leurs résultats, permettant aux data scientists de déterminer dans quelle mesure leurs prédictions sont fiables. Récemment, une équipe de chercheurs de Harvard et du MIT a conçu un moyen rapide permettant aux réseaux de neurones de générer une indication de la confiance d'un modèle parallèlement à ses prédictions.

Les modèles d'apprentissage en profondeur sont devenus de plus en plus sophistiquĂ©s au cours de la dernière dĂ©cennie, et maintenant ils peuvent facilement surpasser les humains dans les tâches de classification des donnĂ©es. Des modèles d'apprentissage en profondeur sont utilisĂ©s dans des domaines oĂą la santĂ© et la sĂ©curitĂ© des personnes peuvent ĂŞtre menacĂ©es en cas d'Ă©chec, en conduisant des vĂ©hicules autonomes et en diagnostiquant des conditions mĂ©dicales Ă  partir d'analyses. Dans ces cas, il ne suffit pas qu'un modèle soit prĂ©cis Ă  99 %, le 1 % de fois oĂą le modèle Ă©choue a le potentiel de conduire Ă  une catastrophe. Par consĂ©quent, les scientifiques des donnĂ©es doivent pouvoir dĂ©terminer la fiabilitĂ© d'une prĂ©diction donnĂ©e.

Il existe plusieurs façons de générer un intervalle de confiance avec les prédictions des réseaux de neurones, mais les méthodes traditionnelles d'estimation de l'incertitude pour un réseau de neurones sont assez lentes et coûteuses en calcul. Les réseaux de neurones peuvent être incroyablement vastes et complexes, remplis de milliards de paramètres. Le simple fait de générer des prédictions peut être coûteux en calcul et prendre beaucoup de temps, et générer un niveau de confiance pour les prédictions prend encore plus de temps. La plupart des méthodes précédentes de quantification de l'incertitude reposaient sur l'échantillonnage ou l'exécution répétée d'un réseau pour obtenir une estimation de sa confiance. Ce n'est pas toujours faisable pour les applications qui nécessitent un trafic à grande vitesse.

Tel que rapporté par MIT News, Alexander Amini dirige le groupe combiné de chercheurs du MIT et de Harvard, et selon Amini, la méthode développée par leurs chercheurs accélère le processus de génération d'estimations d'incertitude à l'aide d'une technique appelée "régression évidente profonde". Amini a expliqué via le MIT que les scientifiques des données ont besoin à la fois de modèles à grande vitesse et d'estimations fiables de l'incertitude afin que les modèles non fiables puissent être discernés. Afin de préserver à la fois la vitesse du modèle et de générer une estimation de l'incertitude, les chercheurs ont conçu un moyen d'estimer l'incertitude à partir d'une seule exécution du modèle.

Les chercheurs ont conçu le modèle de réseau neuronal de manière à ce qu'une distribution probabiliste soit générée à côté de chaque décision. Le réseau conserve des preuves pour ses décisions pendant le processus de formation, générant une distribution de probabilité basée sur les preuves. La distribution probante représente la confiance du modèle et représente l'incertitude à la fois pour la décision finale du modèle et pour les données d'entrée d'origine. Il est important de saisir l'incertitude pour les données d'entrée et les décisions, car la réduction de l'incertitude dépend de la connaissance de la source de l'incertitude.

Les chercheurs ont testé leur technique d’estimation de l’incertitude en l’appliquant à une tâche de vision par ordinateur. Une fois le modèle entraîné sur une série d’images, il a généré à la fois des prédictions et des estimations d’incertitude. Le réseau a correctement projeté une incertitude élevée pour les cas où une mauvaise prédiction avait été faite. "Il était très calibré sur les erreurs commises par le réseau, ce qui, selon nous, était l'un des éléments les plus importants pour juger de la qualité d'un nouvel estimateur d'incertitude", a déclaré Amini à propos des résultats des tests du modèle.

L'équipe de recherche a ensuite mené d'autres tests avec son architecture réseau. Afin de tester la technique, ils ont également testé les données sur des données «hors distribution», des ensembles de données composés d'objets que le réseau n'avait jamais vus auparavant. Comme prévu, le réseau a signalé une incertitude plus élevée pour ces objets invisibles. Lorsqu'il a été formé sur des environnements intérieurs, le réseau a affiché une grande incertitude lorsqu'il a été testé sur des images d'environnements extérieurs. Les tests ont montré que le réseau pouvait mettre en évidence le moment où ses décisions étaient soumises à une forte incertitude et ne devaient pas faire confiance dans certaines circonstances à haut risque.

L'équipe de recherche a même rapporté que le réseau pouvait discerner quand les images avaient été trafiquées. Lorsque l'équipe de recherche a modifié des photos avec un bruit contradictoire, le réseau a marqué les images nouvellement modifiées avec des estimations d'incertitude élevées, malgré le fait que l'effet était trop subtil pour être vu par l'observateur humain moyen.

Si la technique s'avère fiable, une régression probante profonde pourrait améliorer la sécurité des modèles d'IA en général. Selon Amini, une régression probante profonde pourrait aider les gens à prendre des décisions prudentes lors de l'utilisation de modèles d'IA dans des situations à risque. Comme Amini l'a expliqué via MIT News:

«Nous commençons à voir beaucoup plus de ces modèles [de réseaux neuronaux] sortir du laboratoire de recherche et dans le monde réel, dans des situations qui touchent les humains avec des conséquences potentiellement mortelles. Tout utilisateur de la méthode, qu'il s'agisse d'un médecin ou d'une personne assise sur le siège passager d'un véhicule, doit être conscient de tout risque ou incertitude associé à cette décision.