Connect with us

Robótica

Nuevo software desarrollado para mejorar las prótesis robóticas

mm

Los investigadores de la Universidad Estatal de Carolina del Norte han desarrollado un nuevo software para mejorar las prótesis robóticas o exoesqueletos. El nuevo software puede integrarse con el hardware existente, lo que resulta en una marcha más segura y natural en diferentes terrenos.

El documento se titula “Environmental Context Prediction for Lower Limb Prostheses With Uncertainty Quantification.” Fue publicado en IEEE Transactions on Automation Science and Engineering.

Adaptación a diferentes terrenos

Edgar Lobaton es coautor del documento. Es profesor asociado de ingeniería eléctrica y computación en la universidad.

“Las prótesis robóticas de miembros inferiores necesitan ejecutar diferentes comportamientos según el terreno en el que los usuarios estén caminando”, dice Lobaton. “El marco que hemos creado permite que el IA en las prótesis robóticas prediga el tipo de terreno en el que los usuarios estarán pisando, cuantifique las incertidumbres asociadas con esa predicción y luego incorpore esa incertidumbre en su toma de decisiones”.

Los investigadores se centraron en seis terrenos diferentes, cada uno requiriendo ajustes en el comportamiento de una prótesis robótica. Fueron baldosa, concreto, ladrillo, césped, “arriba” y “abajo”.

Boxuan Zhong es el autor principal del documento y un graduado de doctorado de NC State.

“Si el grado de incertidumbre es demasiado alto, el IA no se ve obligado a tomar una decisión cuestionable: podría notificar al usuario de que no tiene suficiente confianza en su predicción para actuar, o podría cambiar a un modo ‘seguro'”, dice Zhong.

Incorporación de elementos de hardware y software

El nuevo marco se basa en la incorporación de elementos de hardware y software, y se utiliza con cualquier exoesqueleto robótico o dispositivo de prótesis de miembros inferiores.

Un nuevo aspecto de este marco es una cámara como otro elemento de hardware. En el estudio, las cámaras se llevaron en gafas y se colocaron en la prótesis de miembro inferior. Los investigadores observaron cómo el IA podía utilizar los datos de visión computacional de las dos cámaras diferentes, primero por separado y luego juntas.

Helen Huang es coautora del documento. Es la profesora distinguida de ingeniería biomédica en el Departamento Conjunto de Ingeniería Biomédica de NC State y la Universidad de Carolina del Norte en Chapel Hill.

“Incorporar visión computacional en software de control para robótica wearable es un área de investigación emocionante”, dice Huang. “Encontramos que usar ambas cámaras funcionó bien, pero requirió una gran cantidad de poder de cómputo y puede ser prohibitivo en términos de costo. Sin embargo, también encontramos que usar solo la cámara montada en el miembro inferior funcionó bastante bien, particularmente para predicciones a corto plazo, como qué sería el terreno para el próximo paso o dos”.

Según Lobaton, el trabajo es aplicable a cualquier tipo de sistema de aprendizaje profundo.

“Encontramos una mejor manera de enseñar a los sistemas de aprendizaje profundo a evaluar y cuantificar la incertidumbre de una manera que permita al sistema incorporar la incertidumbre en su toma de decisiones”, dice Lobaton. “Esto es ciertamente relevante para las prótesis robóticas, pero nuestro trabajo aquí podría aplicarse a cualquier tipo de sistema de aprendizaje profundo”.

Entrenamiento del sistema de IA

Para entrenar el sistema de IA, las cámaras se colocaron en participantes con capacidad física, que luego se movieron a través de diferentes entornos interiores y exteriores. El siguiente paso fue tener a un individuo con amputación de miembro inferior que navegue por los mismos entornos mientras llevaba las cámaras.

“Encontramos que el modelo se puede transferir adecuadamente para que el sistema pueda operar con sujetos de diferentes poblaciones”, dice Lobaton. “Eso significa que el IA funcionó bien incluso aunque fue entrenado por un grupo de personas y utilizado por alguien diferente”.

El siguiente paso es probar el marco en un dispositivo robótico.

“Estamos emocionados de incorporar el marco en el sistema de control para prótesis robóticas funcionales: ese es el próximo paso”, dice Huang.

El equipo también trabajará en hacer que el sistema sea más eficiente, requiriendo menos datos de entrada visuales y procesamiento de datos.

Alex McFarland es un periodista y escritor de inteligencia artificial que explora los últimos desarrollos en inteligencia artificial. Ha colaborado con numerosas startups y publicaciones de inteligencia artificial en todo el mundo.