talón Investigadores crean un robot autónomo que imita las expresiones humanas - Unite.AI
Contáctanos

Robótica

Investigadores crean robot autónomo que imita expresiones humanas

Actualizado on
Imagen: Laboratorio de máquinas creativas

Los investigadores del Laboratorio de Máquinas Creativas de Columbia Engineering han desarrollado un nuevo robot autónomo llamado EVA, que tiene un rostro suave y expresivo que coincide con las expresiones de los humanos cercanos. 

El nuevo la investigación se presentará el 30 de mayo en la conferencia ICRA. Los planos del robot son de código abierto en Hardware-X.

Hod Lipson es profesor James and Sally Scapa de Innovación (Ingeniería Mecánica) y director del Laboratorio de Máquinas Creativas.

“La idea de EVA tomó forma hace unos años, cuando mis alumnos y yo comenzamos a notar que los robots en nuestro laboratorio nos miraban a través de ojos saltones de plástico”, dijo Lipson.

Robots humanizadores

Según Lipson, notó una tendencia similar en las tiendas de abarrotes, donde observó robots de reposición que estaban humanizados con cosas como insignias con nombres.

“La gente parecía estar humanizando a sus colegas robóticos dándoles ojos, una identidad o un nombre”, dijo. "Esto nos hizo preguntarnos, si los ojos y la ropa funcionan, ¿por qué no hacer un robot que tenga un rostro humano súper expresivo y receptivo?"

Los expertos en robótica llevan mucho tiempo trabajando para crear caras robóticas convincentes, pero la tarea no es fácil. Las partes del cuerpo robótico tradicionalmente han consistido en metal o plástico duro, que son demasiado rígidos para moverse de la misma manera que el tejido humano. El hardware robótico también ha sido a menudo difícil de trabajar dada la cantidad de circuitos, sensores y motores pesados ​​y de gran consumo de energía. 

(Animación de hardware) Sonríe como lo dices en serio: conducción de la cara robótica animatrónica con modelos aprendidos

 

Construyendo EVA

El proyecto comenzó hace varios años en el laboratorio de Lipson cuando el estudiante universitario Zanwar Faraj dirigió un equipo de estudiantes para construir la "maquinaria" física del robot. EVA se construyó primero como un busto sin cuerpo, y ahora el robot puede expresar seis emociones básicas de ira, asco, miedo, alegría, tristeza y sorpresa. EVA también puede expresar otras emociones matizadas apoyándose en "músculos" artificiales, que tienen la forma de cables y motores. Estos músculos artificiales tiran de puntos específicos de la cara de EVA, lo que permite al robot imitar los movimientos de más de 42 pequeños músculos que están adheridos a la piel y los huesos de los rostros humanos.

“El mayor desafío en la creación de EVA fue diseñar un sistema que fuera lo suficientemente compacto para caber dentro de los confines de un cráneo humano y al mismo tiempo ser lo suficientemente funcional para producir una amplia gama de expresiones faciales”, dijo Faraj.

Para abordar esto, los investigadores utilizaron la impresión 3D para crear piezas con formas complejas, y estas pudieron integrarse con el cráneo de EVA. 

“Estaba ocupándome de mis propios asuntos un día cuando EVA de repente me dio una gran sonrisa amistosa”, dijo Lipson. “Sabía que era puramente mecánico, pero me encontré devolviéndome la sonrisa por reflejo”.

Programando la IA 

Luego, el equipo avanzó para programar la IA que permitió los movimientos faciales de EVA. El robot se basa en la inteligencia artificial de aprendizaje profundo para "leer" y luego imitar las expresiones de los humanos cercanos, y EVA aprende por prueba y error cuando ve videos de sí mismo. 

Según Boyuan Chen, estudiante de doctorado de Lipson que dirigió la fase de software, los movimientos faciales de EVA eran demasiado complejos para regirse por reglas predefinidas, por lo que se utilizaron varias redes neuronales de aprendizaje profundo para crear el cerebro de EVA. 

El cerebro del robot primero necesitaba aprender a usar su complejo sistema de músculos mecánicos para generar expresiones faciales, y luego tenía que aprender a "leer" las caras de los humanos para luego imitarlas. 

El equipo filmó a EVA haciendo muecas al azar durante horas, y luego la red neuronal interna de EVA aprendió a emparejar el movimiento muscular con el video, lo que significa que tenía una idea de cómo funcionaba su propia cara. Luego se usó una segunda red para hacer coincidir su propia imagen con la de un rostro humano y, luego de varios ajustes, EVA pudo leer los gestos del rostro humano de una cámara y luego responder imitando la misma expresión facial. 

Estos tipos de robots podrían usarse en lugares como hospitales, escuelas y hogares. 

“Existe un límite en cuanto a lo mucho que los seres humanos podemos involucrarnos emocionalmente con los chatbots basados ​​en la nube o los altavoces de hogares inteligentes sin cuerpo”, dijo Lipson. "Nuestros cerebros parecen responder bien a los robots que tienen algún tipo de presencia física reconocible".

“Los robots están entrelazados en nuestras vidas en un número creciente de formas, por lo que generar confianza entre humanos y máquinas es cada vez más importante”, agregó Chen.

 

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.