stub AI bringer nyt potentiale for proteser med 3D-printet hånd - Unite.AI
Følg os

Brain Machine Interface

AI bringer nyt potentiale for proteser med 3D-printede hånd

Opdateret on

En ny 3D-printet håndprotese parret med AI er udviklet af Biological Systems Lab ved Hiroshima University i Japan. Denne nye teknologi kan dramatisk ændre den måde, proteser fungerer på. Det er endnu et skridt i retning af at kombinere både den fysiske menneskelige krop med kunstig intelligens, noget som vi absolut er på vej mod. 

Den 3D-printede protesehånd er blevet parret med en computergrænseflade for at skabe den letteste og billigste model endnu. Denne version er den mest reaktive over for bevægelseshensigt, som vi har set. Før den nuværende model var de normalt lavet af metal, hvilket gjorde dem både tungere og dyrere. Måden denne nye teknologi fungerer på er af et neuralt netværk, der er trænet til at genkende visse kombinerede signaler, disse signaler er blevet kaldt "muskelsynergier" af ingeniørerne, der arbejder på projektet. 

Håndprotesen har fem uafhængige fingre, der kan lave komplekse bevægelser. Sammenlignet med tidligere modeller er disse fingre i stand til at bevæge sig mere og mere rundt på samme tid. Disse udviklinger gør det muligt for hånden at blive brugt til opgaver som at holde genstande såsom flasker og kuglepenne. Når brugeren af ​​teknologien ønsker at bevæge hånden eller fingrene på en bestemt måde, skal de kun forestille sig det. Professor Toshio Tsuji fra Graduate School of Engineering ved Hiroshima University forklarede, hvordan en bruger kan flytte den 3D-printede hånd. 

”Patienten tænker bare på håndens bevægelse, og så bevæger robotten sig automatisk. Robotten er som en del af hans krop. Du kan styre robotten, som du vil. Vi vil kombinere menneskekroppen og maskinen som én levende krop."

Den 3D-printede hånd virker, når elektroder i protesen måler elektriske signaler, der kommer fra nerver gennem huden. Det kan sammenlignes med den måde, EKG og puls fungerer på. De målte signaler sendes derefter til en computer inden for fem millisekunder, hvorefter computeren genkender den ønskede bevægelse. Computeren sender derefter signalet tilbage til hånden. 

Der er et neuralt netværk, der hjælper computeren med at lære de forskellige komplekse bevægelser, det har fået navnet Cybernetic Interface. Den kan skelne mellem de 5 fingre, så der kan være individuelle bevægelser. Professor Tsuji talte også om dette aspekt af den nye teknologi.

"Dette er et af de karakteristiske træk ved dette projekt. Maskinen kan lære simple grundlæggende bevægelser og derefter kombinere og derefter producere komplicerede bevægelser."

Teknologien blev testet blandt syv personer, og en af ​​de syv var en amputeret, som har haft en protese på i 17 år. Patienterne udførte daglige opgaver, og de havde en nøjagtighedsgrad på 95 % for enkeltstående bevægelser og en frekvens på 93 % for komplekse bevægelser. Protetikken, der blev brugt i denne specifikke test, blev kun trænet til 5 forskellige bevægelser med hver finger; der kan være mange mere komplekse bevægelser i fremtiden. Med blot disse 5 trænede bevægelser var den amputerede patient i stand til at samle ting op og ned, såsom flasker og notesbøger. 

Der er mange muligheder for denne teknologi. Det kan reducere omkostningerne, samtidig med at det giver ekstremt funktionelle protesehænder til amputerede patienter. Der er stadig nogle problemer som muskeltræthed og softwarens evne til at genkende mange komplekse bevægelser. 

Dette arbejde blev afsluttet af Hiroshima University Biological Systems Engineering Lab sammen med patienter fra Robot Rehabilitation Center i Hygo Institute of Assistive Technology, Kobe. Firmaet Kinki Gishi var ansvarlig for at skabe fatningen, som blev brugt på armen af ​​den amputerede patient. 

 

Alex McFarland er en AI-journalist og forfatter, der udforsker den seneste udvikling inden for kunstig intelligens. Han har samarbejdet med adskillige AI-startups og publikationer verden over.