Robotique
Les caméras récemment développées utilisent la lumière pour voir autour des coins

David Lindell, un étudiant diplômé en génie électrique à l’Université de Stanford, ainsi que son équipe, ont développé une caméra qui peut regarder les objets en mouvement autour des coins. Lorsqu’ils ont testé la nouvelle technologie, Lindell a porté un costume de survêtement à haute visibilité alors qu’il se déplaçait dans une pièce vide. Ils avaient une caméra qui était dirigée vers un mur vide loin de Lindell, et l’équipe a pu regarder tous ses mouvements avec l’aide d’un laser à haute puissance. Le laser a reconstruit les images grâce à l’utilisation de particules de lumière uniques qui ont été réfléchies sur les murs autour de Lindell. La caméra récemment développée a utilisé des capteurs avancés et un algorithme de traitement.
Gordon Wetzstein, professeur adjoint de génie électrique à Stanford, a parlé de la nouvelle technologie développée.
« Les gens parlent de construire une caméra qui peut voir aussi bien que les humains pour des applications telles que les chats et les robots autonomes, mais nous voulons construire des systèmes qui vont bien au-delà de cela », a-t-il déclaré. « Nous voulons voir les choses en 3D, autour des coins et au-delà du spectre de lumière visible. »
Le système de caméra qui a été testé sera présenté à la conférence SIGGRAPH 2019 le 1er août.
L’équipe a déjà développé des caméras similaires autour des coins dans le passé, mais celle-ci est capable de capturer plus de lumière à partir de plus de surfaces. Elle peut également voir plus loin et plus large, ainsi que surveiller les mouvements hors de vue. Ils espèrent que ces « systèmes de vision surhumaine » pourront être utilisés dans les voitures et les robots autonomes afin qu’ils fonctionnent de manière plus sûre que lorsqu’ils sont contrôlés par un humain.
L’un des objectifs principaux de l’équipe est de maintenir le système pratique. Ils utilisent du matériel, des vitesses de balayage et de traitement d’images, ainsi que des styles d’imagerie qui sont déjà utilisés dans les systèmes de vision des voitures autonomes. Une différence est que le nouveau système est capable de capturer la lumière qui ricoche sur une variété de surfaces différentes avec des textures différentes. Auparavant, les systèmes utilisés pour voir les choses en dehors de la ligne de vue d’une caméra ne pouvaient le faire qu’avec des objets qui réfléchissaient une lumière uniforme et forte.
L’un des développements qui les a aidés à créer cette technologie est un laser qui est 10 000 fois plus puissant que celui qu’ils ont utilisé l’année dernière. Il scanne un mur de l’autre côté du point d’intérêt. La lumière ricoche sur le mur, frappe les objets de la scène et revient sur le mur et les capteurs de la caméra. Le capteur peut alors capter de petites particules de lumière laser et les envoie à un algorithme qui a également été développé par l’équipe. L’algorithme décode les particules pour reconstruire les images.
« Lorsque vous regardez le laser qui scanne, vous ne voyez rien », a déclaré Lindell. « Avec ce matériel, nous pouvons essentiellement ralentir le temps et révéler ces traces de lumière. C’est presque comme de la magie. »
Le nouveau système est capable de scanner à quatre images par seconde et de reconstruire des scènes jusqu’à 60 images par seconde avec une unité de traitement graphique informatique qui améliore les capacités.
Les équipes ont puisé leur inspiration dans d’autres domaines tels que les systèmes d’imagerie sismique. Ceux-ci font ricocher des ondes sonores sur les couches souterraines de la Terre et sont capables de voir ce qui se trouve sous la surface. L’algorithme est reconfiguré pour déchiffrer la lumière qui ricoche sur des objets cachés.
Matthew O’Toole, professeur adjoint à l’Université Carnegie Mellon et ancien boursier postdoctoral dans le laboratoire de Wetzstein, a parlé de la nouvelle technologie.
« Il y a de nombreuses idées utilisées dans d’autres domaines – sismologie, imagerie par satellite, radar à synthèse d’ouverture – qui sont applicables pour regarder autour des coins », a-t-il déclaré. « Nous essayons de prendre un peu de ces domaines et nous espérons pouvoir leur rendre quelque chose à un moment donné. »
La prochaine étape de l’équipe est de tester le système sur des voitures de recherche autonomes. Ils veulent également voir si cela sera applicable dans d’autres domaines tels que l’imagerie médicale et pour aider à combattre les problèmes de conditions visuelles que les conducteurs rencontrent, tels que le brouillard, la pluie, les tempêtes de sable et la neige.












