Wetenschap
Computerwetenschappers van UC Berkeley hebben een algoritme ontwikkeld dat versterkingsleren gebruikt om realistische simulaties van bewegingen van mens en dier te genereren. zoals deze realtime backflip. Hetzelfde algoritme werkt voor 25 acrobatische en danstrucs, met een maand leren vereist per vaardigheid. Krediet:Jason Peng, UC Berkeley
Het is nog steeds gemakkelijk om computergesimuleerde bewegingen van het echte werk te onderscheiden - op het grote scherm of in videogames, gesimuleerde mensen en dieren bewegen zich vaak onhandig, zonder het ritme en de vloeiendheid van hun echte tegenhangers.
Maar dat is aan het veranderen. Universiteit van Californië, Berkeley-onderzoekers hebben nu een grote vooruitgang geboekt in realistische computeranimatie, met behulp van diep versterkend leren om natuurlijke bewegingen na te bootsen, zelfs voor acrobatische prestaties zoals breakdance en vechtsporten. De gesimuleerde karakters kunnen ook natuurlijk reageren op veranderingen in de omgeving, zoals herstellen van struikelen of bekogeld worden door projectielen.
"Dit is eigenlijk een vrij grote sprong ten opzichte van wat er is gedaan met deep learning en animatie. In het verleden, er is veel werk gestoken in het simuleren van natuurlijke bewegingen, maar deze op fysica gebaseerde methoden zijn meestal zeer gespecialiseerd; het zijn geen algemene methoden die een grote verscheidenheid aan vaardigheden aankunnen, " zei UC Berkeley afgestudeerde student Xue Bin "Jason" Peng. Elke activiteit of taak vereist typisch zijn eigen, op maat ontworpen controller.
"We hebben meer capabele agenten ontwikkeld die zich op een natuurlijke manier gedragen, ', zei hij. 'Als je onze resultaten vergelijkt met bewegingsregistratie die is vastgelegd van mensen, we komen op het punt waar het vrij moeilijk is om de twee te onderscheiden, om te vertellen wat simulatie is en wat echt is. We gaan richting een virtuele stuntman."
Het werk zou ook kunnen inspireren tot de ontwikkeling van meer dynamische motorische vaardigheden voor robots.
Een paper waarin de ontwikkeling wordt beschreven, is voorwaardelijk geaccepteerd voor presentatie op de SIGGRAPH-conferentie van 2018 in augustus in Vancouver, Canada, en werd op 10 april online gezet. De collega's van Peng bij de afdeling Elektrotechniek en Computerwetenschappen zijn professor Pieter Abbeel en universitair docent Sergey Levine, samen met Michiel van de Panne van de University of British Columbia.
Mocap voor DeepMimic
Traditionele animatietechnieken vereisen doorgaans het met de hand ontwerpen van aangepaste controllers voor elke vaardigheid:één controller om te lopen, bijvoorbeeld, en nog een voor hardlopen, flips en andere bewegingen. Deze met de hand ontworpen controllers kunnen er best goed uitzien, zei Peng.
Alternatief, leermethoden voor diepe bekrachtiging, zoals GAIL, kan een verscheidenheid aan verschillende vaardigheden simuleren met behulp van een enkel algemeen algoritme, maar hun resultaten zien er vaak erg onnatuurlijk uit.
"Het voordeel van ons werk, "Ping zei, "is dat we het beste van twee werelden kunnen krijgen. We hebben een enkel algoritme dat een verscheidenheid aan verschillende vaardigheden kan leren, en produceren bewegingen die wedijveren, zo niet overtreffen, de stand van de techniek in animatie met handgemaakte controllers."
Om dit te behalen, Peng heeft referentiegegevens verkregen van motion-capture (mocap) clips die meer dan 25 verschillende acrobatische prestaties demonstreren, zoals backflips, radslagen, kip-ups en gewelven, evenals eenvoudig hardlopen, gooien en springen. Na het verstrekken van de mocap-gegevens aan de computer, het team liet het systeem - genaamd DeepMimic - vervolgens elke vaardigheid 'oefenen' gedurende ongeveer een maand gesimuleerde tijd, iets meer tijd nodig heeft dan een mens nodig heeft om dezelfde vaardigheid te leren.
De computer oefende 24/7, miljoenen beproevingen doorlopen om te leren hoe je elke vaardigheid realistisch kunt simuleren. Het leerde met vallen en opstaan:het vergelijken van de prestaties na elke proef met de mocap-gegevens, en het aanpassen van zijn gedrag om beter overeen te komen met de menselijke beweging.
"De machine leert deze vaardigheden volledig vanaf het begin, voordat het zelfs maar kan lopen of rennen, dus een maand is misschien niet al te onredelijk, " hij zei.
De sleutel was om de machine te laten leren op manieren die mensen niet kunnen. Bijvoorbeeld, een backflip omvat zoveel individuele lichaamsbewegingen dat een machine kan blijven vallen en nooit verder komt dan de eerste paar stappen. In plaats daarvan, het algoritme begint te leren in verschillende stadia van de backflip - ook in de lucht - om elke fase van de beweging afzonderlijk te leren en ze vervolgens aan elkaar te hechten.
Verrassend genoeg, eenmaal getraind, de gesimuleerde personages kunnen omgaan met en herstellen van nooit eerder vertoonde omstandigheden:rennen over onregelmatig terrein en spin-kicks doen terwijl ze worden bekogeld door projectielen.
"De terugvorderingen komen gratis uit het leerproces, ' zei Peng.
En dezelfde eenvoudige methode werkte voor alle meer dan 25 vaardigheden.
"Toen we begonnen, we dachten dat we iets eenvoudigs zouden proberen, als basis voor latere methoden, niet verwacht dat het zou lukken. Maar de zeer eenvoudige methode werkt eigenlijk heel goed. Dit toont aan dat een eenvoudige aanpak een zeer rijk repertoire aan zeer dynamische en acrobatische vaardigheden kan leren."
Wetenschap © https://nl.scienceaq.com