Connect with us

Robotique

La capacité du cerveau humain à traiter la lumière pourrait conduire à une meilleure détection robotique

mm

Le cerveau humain sert souvent d’inspiration pour l’intelligence artificielle (IA), et c’est à nouveau le cas, car une équipe de chercheurs de l’armée a réussi à améliorer la détection robotique en étudiant la façon dont le cerveau humain traite la lumière vive et les contrastes. Cette nouvelle avancée peut aider à la collaboration entre les agents autonomes et les humains.

Selon les chercheurs, il est important que la détection des machines soit efficace dans des environnements changeants, ce qui conduit à des développements en autonomie.

La recherche a été publiée dans le Journal of Vision

Capacité d’affichage de 100 000 à 1

Andre Harrison est un chercheur au U.S. Army Combat Capabilities Development Command’s Army Research Laboratory. 

« Lorsque nous développons des algorithmes d’apprentissage automatique, les images du monde réel sont généralement compressées dans une plage plus étroite, comme le fait une caméra de téléphone portable, dans un processus appelé mapping de tons », a déclaré Harrison. « Cela peut contribuer à la fragilité des algorithmes de vision de la machine, car ils sont basés sur des images artificielles qui ne correspondent pas tout à fait aux modèles que nous voyons dans le monde réel. » 

L’équipe de chercheurs a développé un système avec une capacité d’affichage de 100 000 à 1, ce qui leur a permis de mieux comprendre le processus de calcul du cerveau dans le monde réel. Selon Harrison, cela a permis à l’équipe de mettre en œuvre une résilience biologique dans les capteurs.

Les algorithmes de vision actuels ont encore un long chemin à parcourir avant de devenir idéaux. Cela est dû à la plage limitée en luminance, d’environ 100 à 1, en raison du fait que les algorithmes sont basés sur des études humaines et animales avec des moniteurs d’ordinateur. Le rapport de 100 à 1 est moins qu’idéal dans le monde réel, où la variation peut aller jusqu’à 100 000 à 1. Ce rapport élevé est appelé plage dynamique élevée, ou HDR.

Le Dr Chou Po Hung est un chercheur de l’armée. 

« Les changements et les variations importantes de la lumière peuvent mettre en difficulté les systèmes de l’armée – les drones volant sous une canopée forestière peuvent être déconcertés par les changements de réflexion lorsque le vent souffle à travers les feuilles, ou les véhicules autonomes roulant sur un terrain accidenté peuvent ne pas reconnaître les nids-de-poule ni d’autres obstacles, car les conditions de lumière sont légèrement différentes de celles pour lesquelles leurs algorithmes de vision ont été formés », a déclaré Hung. 

La capacité de compression du cerveau humain

Le cerveau humain est capable de compresser automatiquement l’entrée de 100 000 à 1 dans une plage plus étroite, et c’est ce qui permet aux humains d’interpréter la forme. L’équipe de chercheurs a cherché à comprendre ce processus en étudiant le traitement visuel précoce sous HDR. L’équipe s’est intéressée à des caractéristiques simples telles que la luminance HDR. 

« Le cerveau a plus de 30 aires visuelles, et nous n’avons encore qu’une compréhension rudimentaire de la façon dont ces aires traitent l’image de l’œil pour comprendre la forme 3D », a poursuivi Hung. « Nos résultats sur les études de luminance HDR, basés sur le comportement humain et les enregistrements du scalp, montrent à quel point nous savons peu de choses sur la façon de combler le fossé entre le laboratoire et les environnements du monde réel. Mais ces découvertes nous permettent de sortir de cette boîte, en montrant que nos hypothèses antérieures basées sur des moniteurs d’ordinateur standard ont une capacité limitée à généraliser au monde réel, et qu’elles révèlent des principes qui peuvent guider notre modélisation vers les mécanismes corrects. » 

En découvrant comment la lumière et les bords de contraste interagissent dans la représentation visuelle du cerveau, les algorithmes seront plus efficaces pour reconstruire le monde 3D dans des conditions de luminance réelles. Lorsqu’on estime la forme 3D à partir d’informations 2D, il y a toujours des ambiguïtés, mais cette nouvelle découverte permet de les corriger.

« À travers des millions d’années d’évolution, nos cerveaux ont développé des raccourcis efficaces pour reconstruire le 3D à partir de l’information 2D », a déclaré Hung. « C’est un problème qui dure depuis des décennies et qui continue de mettre au défi les scientifiques de la vision de la machine, même avec les récents progrès de l’IA. »

La découverte de l’équipe est également importante pour le développement d’appareils IA comme le radar et la compréhension de la parole à distance, qui utilisent des capteurs à large plage dynamique. 

« Le problème de la plage dynamique n’est pas seulement un problème de détection », a déclaré Hung. « Il peut également être un problème plus général de calcul cérébral, car les neurones individuels ont des dizaines de milliers d’entrées. Comment construire des algorithmes et des architectures qui peuvent écouter les bonnes entrées dans différents contextes ? Nous espérons que, en travaillant sur ce problème à un niveau sensoriel, nous pouvons confirmer que nous sommes sur la bonne voie, afin que nous puissions avoir les bons outils lorsque nous construirons des IA plus complexes. » 

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.