talón Neurocientíficos diseñan modelo para reflejar el aprendizaje visual humano - Unite.AI
Contáctanos

Inteligencia artificial

Neurocientíficos diseñan un modelo para reflejar el aprendizaje visual humano

Publicado

 on

Al programar la inteligencia artificial (IA) basada en computadora para usar una técnica más rápida para aprender nuevos objetos, la IA comienza a funcionar más como la inteligencia humana. Esto ocurre cuando dos neurocientíficos diseñaron un modelo para reflejar el aprendizaje visual humano.

La investigación realizada por Maximillian Riesenhuber, PhD, profesor de neurociencia en el Centro Médico de la Universidad de Georgetown, y Joshua Rule, PhD, investigador postdoctoral en UC Berkeley, se publicó en la revista. Fronteras en Neurociencia Computacional. 

IA aprendiendo nuevos conceptos visuales

Los neurocientíficos demostraron cómo el nuevo enfoque mejora la capacidad del software de IA para aprender rápidamente nuevos conceptos visuales.

“Nuestro modelo proporciona una forma biológicamente plausible para que las redes neuronales artificiales aprendan nuevos conceptos visuales a partir de una pequeña cantidad de ejemplos”, dice Riesenhuber. “Podemos hacer que las computadoras aprendan mucho mejor a partir de unos pocos ejemplos aprovechando el aprendizaje previo de una manera que creemos que refleja lo que está haciendo el cerebro”.

Los seres humanos tienen la capacidad de aprender nuevos conceptos visuales a partir de datos escasos de forma muy rápida y precisa. Poseemos esta habilidad a una edad muy temprana, a partir de los tres meses de edad. Sin embargo, las computadoras requieren muchos ejemplos del mismo objeto para finalmente saber qué es.

“El poder computacional de la jerarquía del cerebro radica en el potencial para simplificar el aprendizaje aprovechando las representaciones previamente aprendidas de un banco de datos, por así decirlo, lleno de conceptos sobre objetos”, dice Riesenhuber.

Redes neuronales artificiales versus sistema visual humano

Riesenhuber y Rule descubrieron que las redes neuronales artificiales pueden aprender nuevos conceptos visuales mucho más rápido, acercándose al nivel de la capacidad humana.

“En lugar de aprender conceptos de alto nivel en términos de características visuales de bajo nivel, nuestro enfoque los explica en términos de otros conceptos de alto nivel”, dice Rule. “Es como decir que un ornitorrinco se parece un poco a un pato, un castor y una nutria marina”.

El aprendizaje de conceptos visuales humanos depende en gran medida de las redes neuronales involucradas en el proceso de reconocimiento de objetos, y se cree que el lóbulo temporal anterior del cerebro tiene la capacidad de ir más allá de la forma con respecto a las representaciones de conceptos. Debido a que estas jerarquías neuronales involucradas en el reconocimiento visual son tan complejas, los humanos pueden aprender nuevas tareas y aprovechar el aprendizaje previo.

“Al reutilizar estos conceptos, puede aprender más fácilmente nuevos conceptos, nuevos significados, como el hecho de que una cebra es simplemente un caballo de una raya diferente”, dice Riesenhuber.

La IA aún no ha alcanzado el mismo nivel que el sistema visual humano, que tiene una capacidad superior para generalizar a partir de unos pocos ejemplos, lidiar con variaciones de imágenes y comprender escenas. Sin embargo, los avances lo están acercando.

“Nuestros hallazgos no solo sugieren técnicas que podrían ayudar a las computadoras a aprender de manera más rápida y eficiente, sino que también pueden conducir a mejores experimentos de neurociencia destinados a comprender cómo las personas aprenden tan rápido, algo que aún no se comprende bien”, dice Riesenhuber.

 

 

 

 

 

 

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.