Connect with us

Inteligencia artificial

Algoritmo permite la navegación visual relativa al terreno en vehículos autónomos

mm

Un nuevo algoritmo de aprendizaje profundo desarrollado por investigadores del Instituto de Tecnología de California (Caltech) permite que los sistemas autónomos reconozcan dónde están observando el terreno que los rodea. Por primera vez, esta tecnología puede funcionar sin importar los cambios estacionales del terreno.

La investigación se publicó el 23 de junio en la revista Science Robotics de la Asociación Estadounidense para el Avance de la Ciencia (AAAS).

Navegación visual relativa al terreno

El proceso se llama navegación visual relativa al terreno (VTRN), y se desarrolló por primera vez en la década de 1960. Los sistemas autónomos pueden localizarse a través de la VTRN comparando el terreno cercano con imágenes de satélite de alta resolución.

Sin embargo, la generación actual de VTRN requiere que el terreno que observa se parezca mucho a las imágenes de la base de datos. Cualquier alteración en el terreno, como la nieve o las hojas caídas, puede hacer que el sistema falle debido a las imágenes no coincidentes. Esto significa que los sistemas VTRN pueden confundirse fácilmente a menos que haya una base de datos de imágenes del paisaje en todas las condiciones concebibles.

El equipo involucrado en este proyecto proviene del laboratorio de Soon-Jo Chung, profesor Bren de Aeroespacio y Control y Sistemas Dinámicos y científico de investigación en JPL. El equipo utilizó el aprendizaje profundo y la inteligencia artificial (IA) para eliminar el contenido estacional que puede ser problemático para los sistemas VTRN.

Anthony Fragoso es profesor y científico del personal, así como autor principal del artículo de Science Robotics.

“La regla general es que ambas imágenes, la del satélite y la del vehículo autónomo, deben tener un contenido idéntico para que las técnicas actuales funcionen. Las diferencias que pueden manejar son aproximadamente lo que se puede lograr con un filtro de Instagram que cambia los matices de una imagen”, dice Fragoso. “En sistemas reales, sin embargo, las cosas cambian drásticamente según la estación porque las imágenes ya no contienen los mismos objetos y no se pueden comparar directamente”.

https://www.youtube.com/watch?v=U5Kr0YI3sec

Aprendizaje auto-supervisado

El proceso fue desarrollado por Chung y Fragoso en colaboración con el estudiante de posgrado Connor Lee y el estudiante de pregrado Austin McCoy, y utiliza “aprendizaje auto-supervisado”.

En lugar de depender de anotadores humanos para curar grandes conjuntos de datos para enseñar a un algoritmo a reconocer algo, como es el caso de la mayoría de las estrategias de visión por computadora, este proceso permite que el algoritmo se enseñe a sí mismo. La IA detecta patrones en las imágenes sacando detalles y características que el ojo humano no puede detectar.

Al complementar la generación actual de VTRN con el nuevo sistema, se obtiene una localización más precisa. Un experimento involucró a los investigadores que intentaban localizar imágenes de follaje de verano contra imágenes de invierno sin hojas utilizando una técnica de VTRN basada en correlación. Descubrieron que el 50 por ciento de los intentos resultaron en fallos de navegación, pero cuando insertaron el nuevo algoritmo en la VTRN, el 92 por ciento de los intentos se emparejaron correctamente, y el 8 por ciento restante se pudo identificar como problemático de antemano.

“Las computadoras pueden encontrar patrones oscuros que nuestros ojos no pueden ver y pueden detectar incluso la tendencia más pequeña”, dice Lee. “La VTRN estaba en peligro de convertirse en una tecnología inviable en entornos comunes pero desafiantes. Rescatamos décadas de trabajo en la resolución de este problema”.

Aplicaciones en el espacio

El nuevo sistema no solo tiene uso para drones autónomos en la Tierra, sino que también se puede utilizar para misiones espaciales. La misión del rover Perseverance Mars 2020 de JPL utilizó la VTRN durante la entrada, el descenso y el aterrizaje en el cráter Jezero, que anteriormente se consideraba demasiado peligroso para un aterrizaje seguro.

Según Chung, para rovers como Perseverance, “se requiere una cierta cantidad de conducción autónoma, ya que las transmisiones tardan siete minutos en viajar entre la Tierra y Marte, y no hay GPS en Marte”.

El equipo cree que el nuevo sistema también se puede utilizar en las regiones polares de Marte, que tienen cambios estacionales intensos. Podría permitir una navegación mejorada para apoyar objetivos científicos, como la búsqueda de agua.

El equipo ahora ampliará la tecnología para tener en cuenta los cambios climáticos, como la niebla, la lluvia y la nieve. Este trabajo podría conducir a sistemas de navegación mejorados para coches autónomos.

Alex McFarland es un periodista y escritor de inteligencia artificial que explora los últimos desarrollos en inteligencia artificial. Ha colaborado con numerosas startups y publicaciones de inteligencia artificial en todo el mundo.