Intelligence artificielle
Ordinateur capable d’identifier 200 espèces d’oiseaux à partir d’une seule photo

Les chercheurs de l’Université Duke ont utilisé l’apprentissage automatique pour entraîner un ordinateur à identifier jusqu’à 200 différentes espèces d’oiseaux. L’ordinateur n’a besoin que d’une photo pour compléter le processus d’identification. Pour un humain, des années d’observation des oiseaux sont souvent nécessaires pour être capable d’identifier les différentes espèces les unes des autres.
La recherche a été menée par Chaofan Chen, étudiant en doctorat en informatique à Duke, ainsi que par l’étudiant en licence Oscar Li. Elle a également été travaillée par d’autres membres de l’équipe du Laboratoire d’analyse de prédiction dirigé par la professeure de Duke Cynthia Rudin.
L’A.I. montre sa pensée
Alors que le processus d’identification est impressionnant, il y a un aspect plus important des développements. L’A.I. est capable de montrer sa pensée, permettant même à un observateur d’oiseaux inexpérimenté de comprendre le processus.
Le réseau neuronal profond, ou les algorithmes basés sur le fonctionnement du cerveau, ont été entraînés avec 11 788 photos. Les photos incluaient 200 différentes espèces d’oiseaux, allant des canards aux colibris.
L’équipe de chercheurs n’a pas eu à entraîner spécifiquement le réseau pour identifier les becs ou les plumes d’ailes. Au lieu de cela, le réseau est capable de prendre une photo d’un oiseau et d’identifier certains modèles dans l’image. Il peut ensuite prendre ces modèles et identifier les modèles précédents qu’il a déjà rencontrés dans les caractéristiques typiques des espèces.
Selon l’équipe, le réseau crée ensuite une série de cartes de chaleur qui identifient certaines caractéristiques. Par exemple, il peut faire la différence entre un fauvette ordinaire et une fauvette à capuchon, ainsi que les différentes caractéristiques comme une tête masquée et un ventre jaune. Il montre ensuite que ces caractéristiques sont celles qui ont conduit à l’identification.
Contrairement aux autres systèmes
Le réseau neuronal a pu identifier l’espèce correcte jusqu’à 84 % du temps. Cela est similaire à certains des systèmes les plus performants. La différence est que ces systèmes ne montrent pas le processus de pensée comme celui-ci.
Selon Rudin, l’aspect le plus révolutionnaire de ce projet est qu’il fournit une visualisation de ce que les réseaux neuronaux profonds voient lorsqu’ils regardent une image.
Cette technologie est également actuellement utilisée sur les sites de médias sociaux, pour identifier les criminels présumés dans les caméras de surveillance, et aider les véhicules autonomes à identifier les feux de circulation et les piétons.
Les logiciels d’apprentissage profond ne nécessitent souvent pas d’être explicitement programmés pour apprendre à partir des données, ce qui n’est pas le cas des logiciels traditionnels. Cependant, le processus n’est pas toujours clair ou montré, il est donc souvent difficile d’expliquer comment les algorithmes « pensent » lors de la classification d’une image.
À l’avenir
Rudin et d’autres travaillent actuellement sur de nouveaux modèles d’apprentissage profond pour l’A.I., en faisant progresser le domaine. Les nouveaux modèles peuvent expliquer leur raisonnement et leur processus d’identification. Cela aide les chercheurs à voir du début à la fin, et cela facilite l’identification de la raison derrière une erreur ou un problème.
Rudin et son équipe vont travailler sur l’utilisation de l’algorithme dans le domaine médical. Il pourrait identifier certaines zones problématiques dans les images médicales comme les mammographies. Cela aiderait les professionnels de la santé à détecter les kystes, les calcifications et d’autres signes de cancer du sein.
Selon Rudin, le réseau imite la façon dont les médecins font un diagnostic.
« C’est un raisonnement basé sur les cas », a déclaré Rudin. « Nous espérons que nous pourrons mieux expliquer aux médecins ou aux patients pourquoi leur image a été classée par le réseau comme maligne ou bénigne. »
L’équipe présentera un document comprenant leurs recherches à la Conférence sur les systèmes de traitement de l’information neuronale (NeurlIPS2019) à Vancouver le 12 décembre.
L’étude comprend également des auteurs Daniel Tao et Alina Barnerr de Duke et Jonathan Su au MIT Lincoln Laboratory.












