Robótica
La capacidad del cerebro humano para procesar la luz podría llevar a una mejor detección robótica

El cerebro humano a menudo sirve de inspiración para la inteligencia artificial (IA), y ese es el caso nuevamente, ya que un equipo de investigadores del ejército ha logrado mejorar la detección robótica al estudiar cómo el cerebro humano procesa la luz brillante y los contrastes. Este nuevo desarrollo puede ayudar a liderar la colaboración entre agentes autónomos y humanos.
Según los investigadores, es importante que la detección de máquinas sea efectiva en entornos cambiantes, lo que conduce a desarrollos en autonomía.
La investigación se publicó en la Journal of Vision.
Capacidad de visualización de 100,000 a 1
Andre Harrison es un investigador en el Laboratorio de Investigación y Desarrollo de Capacidades de Combate del Ejército de los Estados Unidos.
“Cuando desarrollamos algoritmos de aprendizaje automático, las imágenes del mundo real suelen estar comprimidas en un rango más estrecho, como lo hace una cámara de teléfono, en un proceso llamado mapeo de tonos”, dijo Harrison. “Esto puede contribuir a la fragilidad de los algoritmos de visión de máquina porque se basan en imágenes artificiales que no coinciden exactamente con los patrones que vemos en el mundo real”.
El equipo de investigadores desarrolló un sistema con una capacidad de visualización de 100,000 a 1, lo que les permitió obtener información sobre el proceso de cálculo del cerebro en el mundo real. Según Harrison, esto les permitió implementar la resistencia biológica en los sensores.
Los algoritmos de visión actuales todavía tienen un largo camino que recorrer antes de ser ideales. Esto se debe a la gama limitada de luminancia, alrededor de una relación de 100 a 1, debido a que los algoritmos se basan en estudios de humanos y animales con monitores de computadora. La relación de 100 a 1 es menos que ideal en el mundo real, donde la variación puede llegar hasta 100,000 a 1. Esta alta relación se conoce como rango dinámico alto o HDR.
El Dr. Chou Po Hung es un investigador del ejército.
“Los cambios y las variaciones significativas en la luz pueden desafiar a los sistemas del ejército: los drones que vuelan bajo una cubierta de bosque pueden confundirse por los cambios de reflectancia cuando el viento sopla a través de las hojas, o los vehículos autónomos que conducen en terrenos difíciles pueden no reconocer los baches ni otros obstáculos porque las condiciones de iluminación son ligeramente diferentes a las de las que se entrenaron sus algoritmos de visión”, dijo Hung.
La capacidad de compresión del cerebro humano
El cerebro humano es capaz de comprimir automáticamente la entrada de 100,000 a 1 en un rango más estrecho, y esto es lo que permite a los humanos interpretar la forma. El equipo de investigadores se propuso entender este proceso estudiando el procesamiento visual temprano bajo HDR. El equipo se centró en características simples como la luminancia HDR.
“El cerebro tiene más de 30 áreas visuales, y todavía tenemos solo una comprensión rudimentaria de cómo estas áreas procesan la imagen del ojo en una comprensión de la forma 3D”, continuó Hung. “Nuestros resultados con los estudios de luminancia HDR, basados en el comportamiento humano y las grabaciones de cuero cabelludo, muestran cuán poco sabemos realmente sobre cómo salvar la brecha entre el laboratorio y los entornos del mundo real. Pero estos hallazgos nos sacan de esa caja, mostrando que nuestras suposiciones anteriores de monitores de computadora estándar tienen una capacidad limitada para generalizar al mundo real, y revelan principios que pueden guiar nuestro modelado hacia los mecanismos correctos”.
Al descubrir cómo la luz y los bordes de contraste interactúan en la representación visual del cerebro, los algoritmos serán más efectivos para reconstruir el mundo 3D en condiciones de luminancia del mundo real. Al estimar la forma 3D a partir de la información 2D, siempre hay ambigüedades, pero este nuevo descubrimiento permite corregirlas.
“A través de millones de años de evolución, nuestros cerebros han evolucionado atajos efectivos para reconstruir la 3D a partir de la información 2D”, dijo Hung. “Es un problema que lleva décadas desafiar a los científicos de la visión de máquina, incluso con los avances recientes en IA”.
El descubrimiento del equipo también es importante para el desarrollo de dispositivos de IA como el radar y la comprensión remota del habla, que utilizan la detección de rango dinámico amplio.
“El problema del rango dinámico no es solo un problema de detección”, dijo Hung. “También puede ser un problema más general en la computación cerebral porque las neuronas individuales tienen decenas de miles de entradas. ¿Cómo se construyen algoritmos y arquitecturas que puedan escuchar las entradas correctas en diferentes contextos? Esperamos que, al trabajar en este problema a nivel sensorial, podamos confirmar que estamos en el camino correcto, para que podamos tener las herramientas adecuadas cuando construyamos Als más complejas”.










