science >> Wetenschap >  >> Elektronica

Tactiele sensoren en machine learning gebruiken om de manier waarop robots stoffen manipuleren te verbeteren

1) We naderen eerst het doek en dan 2) Probeer een aantal lagen doek te grijpen. Met behulp van tactiele detectie bepalen we of we het juiste aantal lagen pakken en 3) passen we de doek vervolgens aan als dat nodig is. Ten slotte heffen we 4) de doek op met het juiste aantal lagen vastgegrepen. Krediet:Tirumala et al.

In de afgelopen jaren hebben robotici geprobeerd de interactie van robots met verschillende objecten in de echte wereld te verbeteren. Hoewel sommige van hun inspanningen veelbelovende resultaten opleverden, blijven de manipulatievaardigheden van de meeste bestaande robotsystemen nog steeds achter bij die van mensen.

Stoffen behoren tot de soorten objecten waarvan is gebleken dat ze het meest uitdagend zijn voor robots om mee te werken. De belangrijkste redenen hiervoor zijn dat stukken stof en andere stoffen op verschillende manieren kunnen worden uitgerekt, verplaatst en gevouwen, wat kan resulteren in complexe materiaaldynamiek en zelf-occlusies.

Onderzoekers van het Robotics Institute van Carnegie Mellon University hebben onlangs een nieuwe rekentechniek voorgesteld waarmee robots stoffen beter kunnen begrijpen en hanteren. Deze techniek, geïntroduceerd in een paperset die zal worden gepresenteerd op de International Conference on Intelligent Robots and Systems en vooraf is gepubliceerd op arXiv, is gebaseerd op het gebruik van een tactiele sensor en een eenvoudig algoritme voor machinaal leren, bekend als een classifier.

"We zijn geïnteresseerd in het manipuleren van stoffen omdat stoffen en vervormbare objecten in het algemeen een uitdaging zijn voor robots om te manipuleren, omdat hun vervormbaarheid betekent dat ze op zoveel verschillende manieren kunnen worden geconfigureerd," Daniel Seita, een van de onderzoekers die het onderzoek uitvoerde, vertelde TechXplore. "Toen we aan dit project begonnen, wisten we dat er recentelijk veel werk was verricht aan robots die stof manipuleren, maar het meeste van dat werk omvat het manipuleren van een enkel stuk stof. Ons artikel behandelt de relatief minder onderzochte richtingen van het leren manipuleren van een stof. stapel stof met tactiele detectie."

De meeste bestaande benaderingen om weefselmanipulatie in robots mogelijk te maken, zijn alleen gebaseerd op het gebruik van vision-sensoren, zoals camera's of imagers die alleen visuele gegevens verzamelen. Hoewel sommige van deze methoden goede resultaten hebben opgeleverd, kan hun afhankelijkheid van visuele sensoren hun toepasbaarheid beperken voor eenvoudige taken waarbij een enkel stuk stof wordt gemanipuleerd.

De nieuwe methode, ontwikkeld door Seita en zijn collega's Sashank Tirumala en Thomas Weng, maakt daarentegen gebruik van gegevens die zijn verzameld door een tactiele sensor genaamd ReSkin, die informatie kan afleiden met betrekking tot de textuur van een materiaal en de interactie met de omgeving. Met behulp van deze tactiele gegevens heeft het team een ​​classifier getraind om het aantal lagen stof te bepalen dat door een robot wordt gegrepen.

"Onze tactiele gegevens kwamen van de ReSkin-sensor, die vorig jaar onlangs bij CMU is ontwikkeld", legt Weng uit. "We gebruiken deze classifier om de hoogte van een grijper aan te passen om een ​​of twee bovenste stoflagen van een stapel stoffen te pakken."

Om hun techniek te evalueren, voerde het team 180 experimentele proeven uit in een echte wereld, met behulp van een robotsysteem bestaande uit een Franka-robotarm, een mini-Delta-grijper en een Reskin-sensor (geïntegreerd in de "vinger" van de grijper) om te grijpen. een of twee stukken stof op een stapel. Hun aanpak leverde veelbelovende resultaten op en presteerde beter dan baseline-methoden die geen rekening houden met tactiele feedback.

"Vergeleken met eerdere benaderingen die alleen camera's gebruiken, wordt onze op tactiele detectie gebaseerde benadering niet beïnvloed door patronen op de stof, veranderingen in verlichting en andere visuele afwijkingen," zei Tirumala. "We waren verheugd om te zien dat tactiele detectie van elektromagnetische apparaten zoals de ReSkin-sensor een voldoende signaal kan geven voor een fijnkorrelige manipulatietaak, zoals het grijpen van een of twee lagen stof. We denken dat dit toekomstig onderzoek naar tactiele detectie voor kleding zal motiveren manipulatie door robots."

In de toekomst hopen Tirumala, Weng, Seita en hun collega's dat deze manipulatiebenadering kan helpen de mogelijkheden te verbeteren van robots die zijn ontworpen om te worden ingezet in textielfabrieken, wasservices of in huizen. Het zou met name het vermogen van deze robots kunnen verbeteren om complexe textielsoorten, meerdere stukken stof, wasgoed, dekens, kleding en andere op stof gebaseerde objecten te hanteren.

"Ons plan is om het gebruik van tactiele detectie te blijven onderzoeken om een ​​willekeurig aantal stoflagen te grijpen, in plaats van de een of twee lagen waarop we ons in dit werk hebben gericht", voegde Weng eraan toe. "Bovendien onderzoeken we multimodale benaderingen die zowel visie als tactiele detectie combineren, zodat we de voordelen van beide sensormodaliteiten kunnen benutten." + Verder verkennen

Cross-modale sensorische data genereren voor robotische visueel-tactiele waarneming

© 2022 Science X Network