talón Las cámaras recientemente desarrolladas usan la luz para ver alrededor de las esquinas - Unite.AI
Contáctanos

Robótica

Las cámaras recientemente desarrolladas usan la luz para ver alrededor de las esquinas

Actualizado on

David Lindell, un estudiante de posgrado en ingeniería eléctrica de la Universidad de Stanford, junto con su equipo, desarrolló una cámara que puede observar objetos en movimiento alrededor de las esquinas. Cuando probaron la nueva tecnología, Lindell usó un chándal de alta visibilidad mientras se movía por una habitación vacía. Tenían una cámara que apuntaba a una pared en blanco lejos de Lindell, y el equipo pudo observar todos sus movimientos con el uso de un láser de alta potencia. El láser reconstruyó las imágenes mediante el uso de partículas individuales de luz que se reflejaron en las paredes alrededor de Lindell. La cámara recientemente desarrollada utilizó sensores avanzados y un algoritmo de procesamiento. 

Gordon Wetzstein, profesor asistente de ingeniería eléctrica en Stanford, habló sobre la tecnología recientemente desarrollada. 

“La gente habla de construir una cámara que pueda ver tan bien como los humanos para aplicaciones como robots y gatos autónomos, pero queremos construir sistemas que vayan mucho más allá”, dijo. “Queremos ver las cosas en 3D, en las esquinas y más allá del espectro de luz visible”. 

El sistema de cámara que se probó se presentará en la conferencia SIGGRAPH 2019 el 1 de agosto. 

El equipo ya ha desarrollado cámaras similares a la vuelta de la esquina en el pasado, pero esta es capaz de capturar más luz de más superficies. También puede ver más amplio y más lejos, así como monitorear el movimiento fuera de la vista. Esperan que estos "sistemas de visión sobrehumanos" puedan usarse en automóviles y robots autónomos para que funcionen de manera más segura que cuando están controlados por un humano. 

Uno de los principales objetivos del equipo es mantener el sistema práctico. Utilizan hardware, velocidades de escaneo y procesamiento de imágenes, y estilos de imágenes que ya se utilizan en los sistemas de visión de automóviles autónomos. Una diferencia es que el nuevo sistema puede capturar la luz que rebota en una variedad de superficies diferentes con texturas diferentes. Antes, los sistemas que se usaban para ver cosas fuera de la línea de visión de una cámara solo podían hacerlo con objetos que reflejaban una luz uniforme y fuerte. 

Uno de los desarrollos que les ayudó a crear esta tecnología fue un láser que es 10,000 veces más potente que el que usaron el año pasado. Escanea una pared en el lado opuesto del punto de interés. La luz rebota en la pared, golpea los objetos en la escena y regresa a la pared y a los sensores de la cámara. Luego, el sensor puede recoger pequeñas motas de la luz láser y las envía a un algoritmo que también fue desarrollado por el equipo. El algoritmo descifra las motas para reconstruir las imágenes. 

“Cuando observas el escaneo láser, no ves nada”, dijo Lindell. “Con este hardware, básicamente podemos ralentizar el tiempo y revelar estas pistas de luz. Casi parece magia”. 

El nuevo sistema puede escanear a cuatro fotogramas por segundo y reconstruir escenas hasta 60 fotogramas por segundo con una unidad de procesamiento de gráficos por computadora que mejora las capacidades. 

Los equipos se inspiraron en otros campos, como los sistemas de imágenes sísmicas. Esas ondas de sonido rebotan en las capas subterráneas de la Tierra y pueden ver lo que hay debajo de la superficie. El algoritmo se reconfigura para descifrar la luz que rebota en objetos ocultos. 

Matthew O'Toole, profesor asistente en la Universidad Carnegie Mellon y anterior becario postdoctoral en el laboratorio de Wetzstein, habló sobre la nueva tecnología. 

“Se están utilizando muchas ideas en otros espacios (sismología, imágenes con satélites, radar de apertura sintética) que son aplicables para mirar alrededor de las esquinas”, dijo. Estamos tratando de tomar un poco de estos campos y, con suerte, podremos devolverles algo en algún momento”. 

El siguiente paso del equipo es probar el sistema en autos de investigación autónomos. También quieren ver si será aplicable en otras áreas, como imágenes médicas, y para ayudar a combatir los problemas de las condiciones visuales que enfrentan los conductores, como la niebla, la lluvia, las tormentas de arena y la nieve. 

 

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.