science >> Wetenschap >  >> Elektronica

Leren van fouten en overdraagbare vaardigheden - de eigenschappen voor een arbeidersrobot

Krediet:CC0 Publiek Domein

Oefening baart kunst - het is een adagium dat mensen heeft geholpen zeer behendig te worden en nu is het een benadering die wordt toegepast op robots.

Computerwetenschappers van de Universiteit van Leeds gebruiken de kunstmatige intelligentie (AI)-technieken van geautomatiseerde planning en versterking om een ​​robot te "trainen" om een ​​object in een rommelige ruimte te vinden, zoals een magazijnplank of in een koelkast - en verplaats deze.

Het doel is om robotautonomie te ontwikkelen, zodat de machine de unieke omstandigheden van een taak kan beoordelen en een oplossing kan vinden - vergelijkbaar met een robot die vaardigheden en kennis overbrengt naar een nieuw probleem.

De onderzoekers van Leeds presenteren hun bevindingen vandaag (maandag, 4 november op de internationale conferentie over intelligente robotica en systemen in Macau, China.

De grote uitdaging is dat in een beperkte ruimte, een robotarm is mogelijk niet in staat om een ​​object van bovenaf vast te pakken. In plaats daarvan moet het een reeks bewegingen plannen om het doelobject te bereiken, misschien door andere items uit de weg te manipuleren. De computerkracht die nodig is om zo'n taak te plannen is zo groot, de robot pauzeert vaak enkele minuten. En wanneer het de beweging uitvoert, het zal vaak mislukken.

Het ontwikkelen van het idee van oefening baart kunst, de computerwetenschappers van Leeds brengen twee ideeën van AI samen.

Een daarvan is geautomatiseerde planning. De robot kan het probleem "zien" door middel van een vision-systeem, in feite een afbeelding. Software in het besturingssysteem van de robot simuleert de mogelijke reeks bewegingen die hij zou kunnen maken om het doelobject te bereiken.

Maar de simulaties die door de robot zijn "gerepeteerd" slagen er niet in om de complexiteit van de echte wereld vast te leggen en wanneer ze worden geïmplementeerd, de robot slaagt er niet in de taak uit te voeren. Bijvoorbeeld, het kan voorwerpen van de plank slaan.

Daarom heeft het Leeds-team planning gecombineerd met een andere AI-techniek, versterkingsleren genaamd.

Reinforcement learning betrekt de computer in een reeks van vallen en opstaan ​​- ongeveer 10, 000 in totaal - om objecten te bereiken en te verplaatsen. Door deze vallen en opstaan, de robot "leert" welke acties hij heeft gepland meer kans van slagen hebben.

De computer voert het leren zelf uit, beginnen met het willekeurig selecteren van een geplande zet die zou kunnen werken. Maar terwijl de robot leert van vallen en opstaan, het wordt bedrevener in het selecteren van die geplande bewegingen die een grotere kans op succes hebben.

Dr. Matteo Leonetti, van de Informaticaschool, zei:"Kunstmatige intelligentie is er goed in om robots in staat te stellen te redeneren, bijvoorbeeld we hebben robots gezien die betrokken waren bij schaakspellen met grootmeesters.

"Maar robots zijn niet erg goed in waar mensen goed in zijn:zeer mobiel en behendig zijn. Die fysieke vaardigheden zijn ingebed in het menselijk brein, het resultaat van evolutie en de manier waarop we oefenen en oefenen en oefenen.

"En dat is een idee dat we toepassen op de volgende generatie robots."

Volgens Wissam Bejjani, een doctoraat student die het onderzoekspaper schreef, de robot ontwikkelt het vermogen om te generaliseren, om toe te passen wat het heeft gepland op een unieke reeks omstandigheden.

Hij zei:"Ons werk is belangrijk omdat het planning combineert met versterkend leren. Veel onderzoek om deze technologie te ontwikkelen is gericht op slechts een van die benaderingen.

"Onze aanpak is gevalideerd door resultaten die we hebben gezien in het roboticalab van de universiteit.

"Met één probleem waar de robot een grote appel moest verplaatsen, het ging eerst naar de linkerkant van de appel om de rommel te verwijderen, alvorens de appel te manipuleren.

"Het deed dit zonder dat de rommel buiten de rand van de plank viel."

Dr. Mehmet Dogar, Universitair hoofddocent aan de School of Computing, was ook bij het onderzoek betrokken. Hij zei dat de benadering de "denktijd" van de robot met een factor tien had versneld - beslissingen die 50 seconden duurden, nemen nu 5 seconden in beslag.