Suivez nous sur

Une étude montre que les modèles d'IA ne correspondent pas au traitement visuel humain

Intelligence Artificielle

Une étude montre que les modèles d'IA ne correspondent pas au traitement visuel humain

mm

Une nouvelle étude de l'Université York montre que les réseaux de neurones à convolution profonde (DCNN) ne correspondent pas au traitement visuel humain en utilisant la perception de forme configurale. Selon le professeur James Elder, co-auteur de l'étude, cela pourrait avoir des implications graves et dangereuses dans le monde réel pour les applications d'IA. 

La nouvelle étude intitulée «Les modèles d'apprentissage en profondeur ne parviennent pas à capturer la nature configurale de la perception de la forme humaine» a été publié dans la revue Cell Press iScience. 

Il s'agissait d'une étude collaborative menée par Elder, titulaire de la chaire de recherche de York en vision humaine et par ordinateur, ainsi que du poste de codirecteur du Centre for AI & Society de York, et du professeur Nicholas Baker, professeur adjoint de psychologie et ancien VISTA. boursier postdoctoral à York.

Nouveaux stimuli visuels "Frankensteins" 

L'équipe s'est appuyée sur de nouveaux stimuli visuels appelés "Frankensteins", qui les ont aidés à explorer comment le cerveau humain et les DCNN traitent les propriétés holistiques et configurales des objets. 

"Les Frankenstein sont simplement des objets qui ont été démontés et remontés dans le mauvais sens", explique Elder. "En conséquence, ils ont toutes les bonnes fonctionnalités locales, mais aux mauvais endroits." 

L'étude a révélé que les DCNN ne sont pas confondus avec les Frankenstein comme l'est le système visuel humain. Cela révèle une insensibilité aux propriétés d'objet de configuration. 

"Nos résultats expliquent pourquoi les modèles d'IA profonde échouent dans certaines conditions et soulignent la nécessité de considérer des tâches au-delà de la reconnaissance d'objets afin de comprendre le traitement visuel dans le cerveau", poursuit Elder. « Ces modèles profonds ont tendance à prendre des « raccourcis » lors de la résolution de tâches de reconnaissance complexes. Bien que ces raccourcis puissent fonctionner dans de nombreux cas, ils peuvent être dangereux dans certaines des applications d'IA du monde réel sur lesquelles nous travaillons actuellement avec nos partenaires industriels et gouvernementaux.

Image : Université York

Implications dans le monde réel

Elder dit que l'une de ces applications est les systèmes de sécurité vidéo sur la circulation. 

"Les objets d'une scène de circulation animée - les véhicules, les vélos et les piétons - se gênent et arrivent à l'œil d'un conducteur sous la forme d'un fouillis de fragments déconnectés", dit-il. « Le cerveau doit regrouper correctement ces fragments pour identifier les catégories et les emplacements corrects des objets. Un système d'intelligence artificielle pour la surveillance de la sécurité routière qui ne peut percevoir que les fragments individuellement échouera dans cette tâche, ce qui pourrait méconnaître les risques pour les usagers vulnérables de la route. 

Les chercheurs affirment également que les modifications apportées à la formation et à l'architecture visant à rendre les réseaux plus ressemblant à un cerveau n'ont pas permis d'obtenir un traitement de configuration. Aucun des réseaux n'a pu prédire avec précision les jugements d'objets humains essai par essai. 

"Nous supposons que pour correspondre à la sensibilité de la configuration humaine, les réseaux doivent être formés pour résoudre un plus large éventail de tâches d'objet au-delà de la reconnaissance des catégories", conclut Elder.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.