talón La IA de Google enseña a los robots a moverse observando a los perros - Unite.AI
Contáctanos

Robótica

La IA de Google enseña a los robots cómo moverse observando a los perros

mm
Actualizado on

Incluso algunos de los robots más avanzados de la actualidad todavía se mueven de forma un tanto tosca y brusca. Para lograr que los robots se muevan de manera más fluida y real, los investigadores de Google han desarrollado un sistema de IA que es capaz de aprender de los movimientos de animales reales. El equipo de investigación de Google publicó un papel de preimpresión que detalló su enfoque a fines de la semana pasada. En el documento y un anexo del blog, el equipo de investigación describe la lógica detrás del sistema. Los autores del artículo creen que dotar a los robots de un movimiento más natural podría ayudarlos a realizar tareas del mundo real que requieren un movimiento preciso, como entregar artículos entre diferentes niveles de un edificio.

Como informó VentureBeat, el equipo de investigación utilizó el aprendizaje por refuerzo para entrenar a sus robots. Los investigadores comenzaron recopilando clips de animales reales moviéndose y utilizando técnicas de aprendizaje por refuerzo (RL) para empujar a los robots a imitar los movimientos de los animales en los clips de vídeo. En este caso, los investigadores entrenaron a los robots con clips de un perro, diseñados en un simulador de física, instruyendo a un robot Unitree Laikago de cuatro patas para que imitara los movimientos del perro. Una vez que el robot fue entrenado, fue capaz de realizar movimientos complejos como saltar, girar y caminar rápidamente, a una velocidad de alrededor de 2.6 millas por hora.

Los datos de entrenamiento consistieron en aproximadamente 200 millones de muestras de perros en movimiento, rastreados en una simulación física. Luego, los diferentes movimientos se ejecutaron a través de funciones y políticas de recompensa con las que los agentes aprendieron. Una vez creadas las políticas en la simulación, se transfirieron al mundo real mediante una técnica denominada adaptación espacial latente. Debido a que los simuladores de física utilizados para entrenar a los robots solo podían aproximarse a ciertos aspectos del movimiento del mundo real, los investigadores aplicaron aleatoriamente varias perturbaciones a la simulación, con la intención de simular el funcionamiento en diferentes condiciones.

Según el equipo de investigación, pudieron adaptar las políticas de simulación a los robots del mundo real utilizando solo ocho minutos de datos recopilados en 50 pruebas diferentes. Los investigadores lograron demostrar que los robots del mundo real podían imitar una variedad de movimientos diferentes y específicos, como trotar, girar, saltar y caminar. Incluso pudieron imitar animaciones creadas por artistas de animación, como una combinación de salto y giro.

Los investigadores resumen los hallazgos en el artículo:

“Demostramos que al aprovechar los datos de movimiento de referencia, un enfoque único basado en el aprendizaje puede sintetizar automáticamente los controladores para un repertorio diverso [de] comportamientos para robots con patas. Al incorporar técnicas de adaptación de dominio eficientes de muestra en el proceso de capacitación, nuestro sistema puede aprender políticas adaptativas en simulación que luego se pueden adaptar rápidamente para la implementación en el mundo real”.

Las políticas de control utilizadas durante el proceso de aprendizaje por refuerzo tenían sus limitaciones. Debido a las limitaciones impuestas por el hardware y los algoritmos, había algunas cosas que los robots simplemente no podían hacer. No podían correr ni dar grandes saltos, por ejemplo. Las políticas aprendidas tampoco exhibieron tanta estabilidad en comparación con los movimientos diseñados manualmente. El equipo de investigación quiere llevar el trabajo más allá al hacer que los controladores sean más robustos y capaces de aprender de diferentes tipos de datos. Idealmente, las futuras versiones del marco podrán aprender de los datos de video.