science >> Wetenschap >  >> Elektronica

Een optische tactiele sensor met meerdere camera's die op visie gebaseerde robothuiden mogelijk maakt

Een afbeelding van de sensor met meerdere camera's. Krediet:Trueeb, Sferrazza &D'Andrea.

Een team van onderzoekers van ETH Zürich in Zwitserland heeft onlangs een optische tactiele sensor met meerdere camera's ontwikkeld (d.w.z. een tactiele sensor op basis van optische apparaten) die informatie verzamelt over de contactkrachtverdeling die op het oppervlak wordt uitgeoefend. Deze voeler, gepresenteerd in een paper dat vooraf is gepubliceerd op arXiv, zou kunnen worden gebruikt om zachte robothuiden te ontwikkelen op basis van computervisie-algoritmen.

"Vergeleken met de zichtmogelijkheden die robots kunnen bereiken met behulp van moderne camera's, de tastzin bij robots is erg onderontwikkeld, " Camill Trueeb, Carmelo Sferrazza en Raffaello D'Andrea, de onderzoekers die het onderzoek hebben uitgevoerd, vertelde Tech Xplore via e-mail. "Op zicht gebaseerde tactiele skins zijn bedoeld om deze kloof te overbruggen, het benutten van de mogelijkheden van vision-sensoren en state-of-the-art kunstmatige intelligentie-algoritmen, profiteren van de toegankelijkheid van grote hoeveelheden data en rekenkracht."

De optische tactiele sensor ontwikkeld door Trueeb, Sferrazza en D'Andrea bestaat uit vier camera's die onder een zacht, transparant materiaal dat een ingebedde verspreiding van bolvormige deeltjes bevat. De camera's volgen de beweging van deze bolvormige deeltjes, die ontstaat door de vervorming van het materiaal wanneer er een kracht op wordt uitgeoefend.

De onderzoekers ontwikkelden ook een machine learning (ML) architectuur die de beweging van de bolvormige deeltjes in het materiaal analyseert. Door deze beweging te analyseren, deze architectuur kan de krachten reconstrueren die een vervorming in het materiaal veroorzaken, ook bekend als de contactkrachtverdeling.

"We gebruiken relatief goedkope camera's die tegelijkertijd beelden leveren voor in totaal zo'n 65, 000 pixels, " legden de onderzoekers uit. "Daarom, ze genereren een grote hoeveelheid informatie met een zeer hoge resolutie, wat ideaal is voor een datagestuurde benadering van tactiele detectie."

In plaats van alleen totale krachtwaarden te geven, zoals de meeste bestaande standaard krachtsensoren voor robotica-toepassingen, de door de onderzoekers ontwikkelde sensor geeft feedback over de verdeling van alle krachten die op het zachte oppervlak worden uitgeoefend, ontkoppeling van normale en tangentiële componenten. Door de structuur en het unieke ontwerp, de nieuwe multicamerasensor heeft ook een groter contactoppervlak en een dunnere structuur dan andere op camera's gebaseerde tactiele sensoren zonder dat er extra reflecterende componenten nodig zijn (bijv. spiegels).

"Het gebruik van meerdere camera's maakt het mogelijk om dit type tactiele sensor te gebruiken om grotere gebieden met willekeurige vormen te bestrijken, " zeiden de onderzoekers. "Dit werk laat zien hoe de kennis die is opgedaan over een subset van de camera's kan worden overgedragen naar extra camera's, resulterend in een schaalbare, data-efficiënte aanpak."

De AI-aangedreven, multi-camera sensor kan uiteindelijk worden geschaald naar grotere oppervlakken, waardoor de creatie van zachte en voelende robothuiden mogelijk is. In hun recente krant de onderzoekers bespreken hoe hun ML-architectuur kan worden aangepast om deze toepassingen in de toekomst mogelijk te maken.

"We zijn nu van plan om de mogelijkheden van de sensor uit te breiden om informatie te reconstrueren over het contact met objecten met complexe en generieke vormen, " zeiden de onderzoekers. "Wij zijn van mening dat de ontwikkeling van detectiealgoritmen altijd rekening moet houden met de data-efficiëntiecomponent om wijdverbreid gebruik in robotica te vergemakkelijken, en daarom zullen we deze richting volgen in toekomstige werkzaamheden, ook."

© 2019 Wetenschap X Netwerk