science >> Wetenschap >  >> Elektronica

Robot kan elk object oppakken nadat het is geïnspecteerd

Manuelli gebruikt het DON-systeem en de Kuka-robot om een ​​kopje vast te pakken. Krediet:Tom Buehler

Mensen zijn al lang meesters in behendigheid, een vaardigheid die grotendeels kan worden toegeschreven aan de hulp van onze ogen. Robots, In de tussentijd, zijn nog aan het inhalen. Er is zeker enige vooruitgang geboekt:al tientallen jaren zijn robots in gecontroleerde omgevingen zoals assemblagelijnen in staat om hetzelfde object steeds weer op te pakken.

Recenter, doorbraken in computervisie hebben robots in staat gesteld om basisonderscheid te maken tussen objecten, maar zelfs dan, ze begrijpen de vormen van objecten niet echt, dus er is weinig dat ze kunnen doen na een snelle pick-up.

In een nieuwe krant onderzoekers van MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL), zeggen dat ze een belangrijke ontwikkeling hebben gemaakt op dit werkgebied:een systeem waarmee robots willekeurige objecten kunnen inspecteren, en visueel genoeg te begrijpen om specifieke taken uit te voeren zonder ze ooit eerder te hebben gezien.

Het systeem, genaamd "Dense Object Nets" (DON), ziet objecten als verzamelingen van punten die dienen als een soort "visuele routekaarten". Met deze aanpak kunnen robots items beter begrijpen en manipuleren, en, het belangrijkste, stelt hen in staat zelfs een specifiek object op te rapen tussen een wirwar van vergelijkbare objecten - een waardevolle vaardigheid voor het soort machines dat bedrijven als Amazon en Walmart in hun magazijnen gebruiken.

Bijvoorbeeld, iemand zou DON kunnen gebruiken om een ​​robot een specifieke plek op een object te laten grijpen, bijvoorbeeld:de tong van een schoen. Van dat, het kan kijken naar een schoen die het nog nooit eerder heeft gezien, en met succes zijn tong grijpen.

"Veel benaderingen van manipulatie kunnen specifieke delen van een object niet identificeren in de vele oriëntaties die het object kan tegenkomen, " zegt promovendus Lucas Manuelli, die een nieuw artikel over het systeem schreef met hoofdauteur en collega Ph.D. student Piet Florence, naast MIT-professor Russ Tedrake. "Bijvoorbeeld, bestaande algoritmen zouden een mok niet bij het handvat kunnen pakken, vooral als de mok in meerdere richtingen zou kunnen zijn, zoals rechtop, of op zijn kant."

Het team bekijkt potentiële toepassingen niet alleen in productieomgevingen, maar ook in woningen. Stel je voor dat je het systeem een ​​beeld geeft van een opgeruimd huis, en laten schoonmaken terwijl je aan het werk bent, of een afbeelding van gerechten gebruiken zodat het systeem uw borden opbergt terwijl u op vakantie bent.

Wat ook opmerkelijk is, is dat geen van de gegevens daadwerkelijk door mensen is gelabeld; liever, het systeem is "zelf-gecontroleerd, " dus het vereist geen menselijke annotaties.

Makkelijk te begrijpen

Twee veelvoorkomende benaderingen van robotgrijpen zijn ofwel taakspecifiek leren, of het creëren van een algemeen grijpalgoritme. Deze technieken hebben beide obstakels:taakspecifieke methoden zijn moeilijk te generaliseren naar andere taken, en algemeen begrip wordt niet specifiek genoeg om met de nuances van bepaalde taken om te gaan, zoals het plaatsen van objecten op specifieke plekken.

Het DON-systeem, echter, creëert in wezen een reeks coördinaten op een bepaald object, die dienen als een soort "visuele routekaart" van de objecten, om de robot een beter begrip te geven van wat hij moet begrijpen, en waar.

Het team heeft het systeem getraind om naar objecten te kijken als een reeks punten die samen een groter coördinatensysteem vormen. Het kan dan verschillende punten samen in kaart brengen om de 3D-vorm van een object te visualiseren, vergelijkbaar met hoe panoramische foto's worden samengevoegd uit meerdere foto's. Na het trainen, als een persoon een punt op een object specificeert, de robot kan een foto van dat object maken, en identificeer en match punten om vervolgens het object op dat gespecificeerde punt te kunnen oppakken.

Dit is anders dan systemen zoals UC-Berkeley's DexNet, die veel verschillende items kan bevatten, maar kan niet voldoen aan een specifiek verzoek. Stel je een baby voor van 18 maanden oud, die niet begrijpt met welk speelgoed je wilt spelen, maar toch veel items kan pakken, versus een vierjarige die kan reageren op "pak je vrachtwagen aan het rode uiteinde ervan."

In een reeks tests gedaan op een zacht rupsspeelgoed, een Kuka-robotarm aangedreven door DON kon het rechteroor van het speelgoed vastpakken vanuit een reeks verschillende configuraties. Dit toonde aan dat, onder andere, het systeem heeft de mogelijkheid om links van rechts te onderscheiden op symmetrische objecten.

Bij het testen op een bak met verschillende honkbalpetten, DON kon een specifieke doelhoed uitkiezen ondanks dat alle hoeden zeer vergelijkbare ontwerpen hadden - en nog nooit eerder foto's van de hoeden in trainingsgegevens hadden gezien.

"In fabrieken hebben robots vaak complexe feeders nodig om betrouwbaar te werken, "zegt Manuelli. "Maar een systeem als dit dat de oriëntatie van objecten kan begrijpen, zou gewoon een foto kunnen maken en het object dienovereenkomstig kunnen grijpen en aanpassen."

In de toekomst, het team hoopt het systeem te verbeteren tot een plek waar het specifieke taken kan uitvoeren met een dieper begrip van de bijbehorende objecten, zoals leren hoe je een object moet pakken en verplaatsen met het uiteindelijke doel om te zeggen, een bureau schoonmaken.

Het team zal volgende maand hun paper over het systeem presenteren op de Conference on Robot Learning in Zürich, Zwitserland.