Wetenschap
Krediet:Ecole Polytechnique Federale de Lausanne
EPFL-wetenschappers ontwikkelen nieuwe benaderingen voor verbeterde controle van robothanden, met name voor geamputeerden, die individuele vingercontrole en automatisering combineren voor beter grijpen en manipuleren. Deze interdisciplinaire proof of concept tussen neuroengineering en robotica is met succes getest op drie geamputeerden en zeven gezonde proefpersonen. De resultaten zijn gepubliceerd in het huidige nummer van Intelligentie van de natuurmachine .
De technologie combineert twee concepten uit twee verschillende vakgebieden. Ze allebei samen implementeren was nog nooit eerder gedaan voor robothandbesturing, en draagt bij aan het opkomende gebied van gedeelde controle in neuroprothesen.
één begrip, van neuro-engineering, omvat het ontcijferen van de beoogde vingerbeweging uit spieractiviteit op de stomp van de geamputeerde voor individuele vingercontrole van de prothetische hand, wat nog nooit eerder is gedaan. De andere, van robotica, stelt de robothand in staat om objecten vast te pakken en er contact mee te houden voor stevig vastgrijpen.
"Als je een voorwerp in je hand houdt, en het begint te slippen, je hebt maar een paar milliseconden om te reageren, ", legt Aude Billard uit, die leiding geeft aan EPFL's Learning Algorithms and Systems Laboratory. "De robothand kan binnen 400 milliseconden reageren. Uitgerust met druksensoren langs de vingers, het kan reageren en het object stabiliseren voordat de hersenen daadwerkelijk kunnen waarnemen dat het object wegglijdt. "
Hoe gedeeld beheer werkt
Het algoritme leert eerst de intentie van de gebruiker te decoderen en vertaalt dit in vingerbewegingen van de prothesehand. De geamputeerde moet een reeks handbewegingen uitvoeren om het algoritme te trainen dat gebruikmaakt van machine learning. Sensoren op de stomp van de geamputeerde detecteren spieractiviteit, en het algoritme leert welke handbewegingen overeenkomen met welke patronen van spieractiviteit. Zodra de beoogde vingerbewegingen van de gebruiker zijn begrepen, deze informatie kan worden gebruikt om individuele vingers van de prothesehand aan te sturen.
"Omdat spiersignalen luidruchtig kunnen zijn, we hebben een algoritme voor machinaal leren nodig dat betekenisvolle activiteit uit die spieren haalt en ze vertaalt in bewegingen, ", zegt Katie Zhuang, eerste auteur van de publicatie.
Volgende, de wetenschappers hebben het algoritme zo ontworpen dat robotautomatisering in werking treedt wanneer de gebruiker een object probeert te grijpen. Het algoritme vertelt de prothesehand om zijn vingers te sluiten wanneer een object in contact komt met sensoren op het oppervlak van de prothesehand. Dit automatisch grijpen is een aanpassing van een eerdere studie voor robotarmen die zijn ontworpen om de vorm van objecten af te leiden en ze vast te pakken op basis van alleen tactiele informatie, zonder de hulp van visuele signalen.
Krediet:Ecole Polytechnique Federale de Lausanne
Krediet:Ecole Polytechnique Federale de Lausanne
Er zijn nog veel uitdagingen om het algoritme te ontwikkelen voordat het kan worden geïmplementeerd in een commercieel verkrijgbare handprothese voor geamputeerden. Voor nu, het algoritme wordt nog getest op een robot van een externe partij.
"Onze gedeelde benadering om robothanden te besturen, kan worden gebruikt in verschillende neuroprothetische toepassingen, zoals bionische handprothesen en brain-to-machine-interfaces, het vergroten van de klinische impact en bruikbaarheid van deze apparaten, "Silvestro Micera, EPFL's Bertarelli Foundation Chair in Translational Neuroengineering, en hoogleraar bio-elektronica aan Scuola Superiore Sant'Anna.
Wetenschap © https://nl.scienceaq.com