Robótica
Unity Avanza en la Industria de la Robótica con Nuevos Lanzamientos

Unity es una de las principales plataformas para desarrollar y operar contenido 3D en tiempo real, o RT3D. La empresa ha anunciado recientemente su Estimación de Posición de Objeto, que tiene como objetivo mejorar la industria de la robótica, específicamente en el entorno industrial, a través del uso de tecnologías de visión por computadora y simulación.
Demostración de Posición de Objeto
La Demostración de Posición de Objeto se llevó a cabo junto con una demostración correspondiente, que muestra cómo los robots pueden aprender a través de datos sintéticos.
El Dr. Danny Lange es Vicepresidente Senior de Inteligencia Artificial en Unity.
“Este es un ejemplo poderoso de un sistema que aprende en lugar de ser programado, y a medida que aprende de los datos sintéticos, es capaz de capturar patrones más matizados que cualquier programador podría”, dijo. “Superponer nuestras tecnologías muestra cómo estamos cruzando una línea, y estamos empezando a tratar con algo que es verdaderamente IA, y en este caso, demostrando las eficiencias posibles en el entrenamiento de robots”.
Cuando el Dr. Lange se refiere a superponer las tecnologías de la empresa, se refiere en parte a los lanzamientos recientes de Unity que admiten el Sistema Operativo de Robótica (ROS), que es un marco flexible para desarrollar software de robot.
https://www.youtube.com/watch?v=dhVPml_IVr4
Construyendo sobre Lanzamientos Anteriores
Antes del lanzamiento de la demostración de Estimación de Posición de Objeto, Unity lanzó el Importador URDF de la empresa, un paquete de Unity de código abierto, junto con el Conector ROS-TCP, que tiene como objetivo reducir drásticamente la latencia de los mensajes entre los nodos ROS y Unity. Esto permite que el robot que opera en un entorno simulado actúe en tiempo casi real.
La tecnología de simulación a menudo se utiliza cuando se prueban aplicaciones en situaciones peligrosas, costosas o raras. Al utilizar la simulación, las aplicaciones pueden validarse antes de implementarse en el robot, lo que permite la detección temprana de posibles problemas. Al combinar el motor de física integrado de Unity y el Editor de Unity, se pueden crear entornos virtuales ilimitados.
Con la combinación de estas herramientas, la demostración mostró cómo se pueden crear grandes cantidades de datos de entrenamiento sintéticos etiquetados. Luego se utilizó para entrenar un modelo de aprendizaje profundo simple para predecir la posición de un cubo. La demostración proporcionó un tutorial para aquellos que buscan recrear el proyecto.
“Con Unity, no solo hemos democratizado la creación de datos, sino que también hemos proporcionado acceso a un sistema interactivo para simular interacciones avanzadas en un entorno virtual”, continuó Lange.
“Puedes desarrollar los sistemas de control para un vehículo autónomo, por ejemplo, o aquí para brazos robóticos muy costosos, sin el riesgo de dañar el equipo o aumentar dramáticamente el costo de las instalaciones industriales. Ser capaz de probar el riesgo de las aplicaciones previstas en un entorno virtual de alta fidelidad ahorrará tiempo y dinero para muchas industrias que están a punto de ser transformadas por la robótica combinada con IA y Aprendizaje Automático”.












