Connect with us

El AI de Google enseña a los robots a moverse observando a los perros

Inteligencia artificial

El AI de Google enseña a los robots a moverse observando a los perros

mm

Incluso algunos de los robots más avanzados de hoy en día aún se mueven de manera un poco torpe y brusca. Con el fin de hacer que los robots se muevan de manera más parecida a la vida real y fluida, los investigadores de Google han desarrollado un sistema de AI que es capaz de aprender de los movimientos de animales reales. El equipo de investigación de Google publicó un borrador de un artículo que detallaba su enfoque a finales de la semana pasada. En el artículo y una publicación de blog acompañante, el equipo de investigación describe la razón detrás del sistema. Los autores del artículo creen que dotar a los robots de movimientos más naturales podría ayudarlos a realizar tareas del mundo real que requieren movimientos precisos, como entregar artículos entre diferentes niveles de un edificio.

Como informó VentureBeat, el equipo de investigación utilizó el aprendizaje de refuerzo para entrenar a sus robots. Los investigadores comenzaron recopilando clips de animales reales en movimiento y utilizando técnicas de aprendizaje de refuerzo (RL) para empujar a los robots hacia la imitación de los movimientos de los animales en los clips de video. En este caso, los investigadores entrenaron a los robots con clips de un perro, diseñados en un simulador de física, instruyendo a un robot de cuatro patas Unitree Laikago para imitar los movimientos del perro. Después de que el robot fue entrenado, fue capaz de realizar movimientos complejos como saltar, girar y caminar rápidamente, a una velocidad de alrededor de 2,6 millas por hora.

Los datos de entrenamiento consistieron en aproximadamente 200 millones de muestras de perros en movimiento, rastreados en un simulador de física. Los diferentes movimientos se ejecutaron a través de funciones de recompensa y políticas que los agentes aprendieron. Después de que se crearon las políticas en la simulación, se transfirieron al mundo real utilizando una técnica llamada adaptación de espacio latente. Dado que los simuladores de física utilizados para entrenar a los robots solo podían aproximar ciertos aspectos del movimiento del mundo real, los investigadores aplicaron aleatoriamente varias perturbaciones a la simulación, destinadas a simular la operación bajo diferentes condiciones.

Según el equipo de investigación, fueron capaces de adaptar las políticas de simulación a los robots del mundo real utilizando solo ocho minutos de datos recopilados de 50 ensayos diferentes. Los investigadores lograron demostrar que los robots del mundo real fueron capaces de imitar una variedad de movimientos específicos, como trotar, girar, saltar y caminar. Incluso fueron capaces de imitar animaciones creadas por artistas de animación, como una combinación de salto y giro.

Los investigadores resumen los hallazgos en el artículo:

“Mostramos que al aprovechar los datos de movimiento de referencia, un enfoque de aprendizaje basado en un solo enfoque es capaz de sintetizar automáticamente controladores para una diversa repertorio [de] comportamientos para robots de piernas. Al incorporar técnicas de adaptación de dominio eficientes en muestras en el proceso de entrenamiento, nuestro sistema es capaz de aprender políticas adaptativas en simulación que pueden adaptarse rápidamente para la implementación en el mundo real.”

Las políticas de control utilizadas durante el proceso de aprendizaje de refuerzo tenían sus limitaciones. Debido a las limitaciones impuestas por el hardware y los algoritmos, había algunas cosas que los robots simplemente no podían hacer. No podían correr o hacer saltos grandes, por ejemplo. Las políticas aprendidas tampoco exhibieron tanta estabilidad en comparación con los movimientos diseñados manualmente. El equipo de investigación quiere llevar el trabajo más lejos haciendo que los controladores sean más robustos y capaces de aprender de diferentes tipos de datos. Idealmente, las versiones futuras del marco serán capaces de aprender de datos de video.

Bloguero y programador con especialidades en Machine Learning y Deep Learning temas. Daniel espera ayudar a otros a utilizar el poder de la IA para el bien social.