Intelligence artificielle
Algorithme permettant la navigation visuelle relative au terrain dans les véhicules autonomes

Un nouvel algorithme d’apprentissage profond développé par des chercheurs de l’Institut de technologie de Californie (Caltech) permet aux systèmes autonomes de reconnaître où ils se trouvent en observant le terrain qui les entoure. Pour la première fois, cette technologie peut fonctionner quelle que soit les changements saisonniers du terrain.
La recherche a été publiée le 23 juin dans la revue Science Robotics de l’American Association for the Advancement of Science (AAAS).
Navigation visuelle relative au terrain
Le processus est appelé navigation visuelle relative au terrain (VTRN), et il a été développé pour la première fois dans les années 1960. Les systèmes autonomes peuvent se localiser grâce à la VTRN en comparant le terrain environnant à des images satellites haute résolution.
Cependant, la génération actuelle de VTRN nécessite que le terrain observé corresponde étroitement aux images de la base de données. Toute altération du terrain, telle que la neige ou la chute des feuilles, peut causer l’échec du système en raison de non-correspondance d’images. Cela signifie que les systèmes VTRN peuvent être facilement déroutés à moins qu’il n’y ait une base de données d’images du paysage dans toutes les conditions concevables.
L’équipe impliquée dans ce projet vient du laboratoire de Soon-Jo Chung, professeur Bren d’aérospatiale et de systèmes de contrôle et de dynamique, ainsi que scientifique de recherche au JPL. L’équipe a utilisé l’apprentissage profond et l’intelligence artificielle (IA) pour supprimer le contenu saisonnier qui peut être problématique pour les systèmes VTRN.
Anthony Fragoso est un chargé de cours et un scientifique, ainsi que l’auteur principal de l’article de Science Robotics.
“La règle de base est que les deux images – celle de la satellite et celle du véhicule autonome – doivent avoir un contenu identique pour que les techniques actuelles fonctionnent. Les différences qu’elles peuvent gérer sont à peu près ce qui peut être accompli avec un filtre Instagram qui modifie les teintes d’une image”, déclare Fragoso. “Dans les systèmes réels, cependant, les choses changent considérablement en fonction de la saison, car les images ne contiennent plus les mêmes objets et ne peuvent pas être directement comparées.”
https://www.youtube.com/watch?v=U5Kr0YI3sec
Apprentissage autonome
Le processus a été développé par Chung et Fragoso en collaboration avec l’étudiant diplômé Connor Lee et l’étudiant de premier cycle Austin McCoy, et il utilise l'”apprentissage autonome”.
Au lieu de s’appuyer sur des annotateurs humains pour créer de grandes bases de données afin d’enseigner à un algorithme à reconnaître quelque chose, comme c’est le cas avec la plupart des stratégies de vision par ordinateur, ce processus permet à l’algorithme de s’enseigner lui-même. L’IA détecte des modèles dans les images en en extrayant des détails et des fonctionnalités que l’œil humain ne remarquerait pas.
En complétant la génération actuelle de VTRN avec le nouveau système, cela donne lieu à une localisation plus précise. Une expérience a consisté pour les chercheurs à essayer de localiser des images de feuillage d’été par rapport à des images d’hiver sans feuilles à l’aide d’une technique VTRN basée sur la corrélation. Ils ont constaté que 50 % des tentatives ont abouti à des échecs de navigation, mais lorsque mereka ont inséré le nouvel algorithme dans la VTRN, 92 % des tentatives ont été correctement appariées, et les 8 % restants pouvaient être identifiés comme problématiques à l’avance.
“Les ordinateurs peuvent trouver des modèles obscurs que nos yeux ne peuvent pas voir et peuvent même détecter la plus petite tendance”, déclare Lee. “La VTRN était en danger de devenir une technologie inapplicable dans des environnements courants mais difficiles. Nous avons sauvé des décennies de travail pour résoudre ce problème.”
Applications dans l’espace
Le nouveau système n’a pas seulement une utilité pour les drones autonomes sur Terre, mais il peut également être utilisé pour les missions spatiales. La mission Mars 2020 Perseverance du JPL a utilisé la VTRN pendant l’entrée, la descente et l’atterrissage dans le cratère Jezero, qui était considéré comme trop dangereux pour un atterrissage sécurisé.
Selon Chung, pour des rovers comme Perseverance, “une certaine quantité de conduite autonome est nécessaire, car les transmissions mettent sept minutes pour voyager entre la Terre et Mars, et il n’y a pas de GPS sur Mars”.
L’équipe pense que le nouveau système pourrait également être utilisé dans les régions polaires martiennes, qui connaissent des changements saisonniers importants. Il pourrait permettre une navigation améliorée pour soutenir les objectifs scientifiques, tels que la recherche d’eau.
L’équipe va maintenant étendre la technologie pour tenir compte des changements météorologiques, tels que le brouillard, la pluie et la neige. Ce travail pourrait conduire à des systèmes de navigation améliorés pour les voitures autonomes.










