Wetenschap
De AI-agent dekt de tafel. Krediet:MIT CSAIL
Voor veel mensen, huishoudelijke taken zijn een gevreesde, onontkoombaar deel van het leven dat we vaak uitstellen of met weinig zorg doen - maar wat als een robotmeisje zou kunnen helpen de last te verlichten?
Onlangs, computerwetenschappers hebben gewerkt aan het leren van machines om een breder scala aan taken in huis uit te voeren. In een nieuwe paper onder leiding van MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL) en de Universiteit van Toronto, onderzoekers demonstreren "VirtualHome, " een systeem dat gedetailleerde huishoudelijke taken kan simuleren en vervolgens kunstmatige "agenten" kan laten uitvoeren, het openen van de mogelijkheid om op een dag robots te leren dergelijke taken uit te voeren.
Het team heeft het systeem getraind met behulp van bijna 3, 000 programma's van verschillende activiteiten, die verder zijn onderverdeeld in subtaken die de computer kan begrijpen. Een eenvoudige taak als "koffie zetten, " bijvoorbeeld, zou ook de stap "een kopje pakken" omvatten. De onderzoekers demonstreerden VirtualHome in een 3D-wereld geïnspireerd op de Sims-videogame.
De AI-agent van het team kan 1 uitvoeren 000 van deze interacties in de Sims-achtige wereld, met acht verschillende scènes waaronder een woonkamer, keuken, eetkamer, slaapkamer, en thuiskantoor.
"Het beschrijven van acties als computerprogramma's heeft het voordeel dat het duidelijke en ondubbelzinnige beschrijvingen geeft van alle stappen die nodig zijn om een taak te voltooien, " zegt promovendus Xavier Puig, wie was hoofdauteur op het papier. "Deze programma's kunnen een robot of een virtueel personage instrueren, en kan ook worden gebruikt als een weergave voor complexe taken met eenvoudigere acties."
Het project is mede ontwikkeld door CSAIL en de Universiteit van Toronto, samen met onderzoekers van McGill University en de Universiteit van Ljubljana. Het zal worden gepresenteerd op de conferentie Computer Vision and Pattern Recognition (CVPR), die deze maand plaatsvindt in Salt Lake City.
Hoe het werkt
In tegenstelling tot mensen, robots hebben meer expliciete instructies nodig om eenvoudige taken uit te voeren - ze kunnen niet zomaar conclusies trekken en redeneren.
Bijvoorbeeld, je zou tegen een mens kunnen zeggen:"zet de tv aan en kijk ernaar vanaf de bank." Hier, acties als "pak de afstandsbediening" en "zit/lig op de bank" zijn weggelaten, omdat ze deel uitmaken van de gezond verstand kennis die mensen hebben.
Om dit soort taken beter aan robots te demonstreren, de beschrijvingen voor acties moesten veel gedetailleerder zijn. Om dit te doen, het team verzamelde eerst verbale beschrijvingen van huishoudelijke activiteiten, en vervolgens vertaald in eenvoudige code. Een programma als dit kan stappen bevatten als:loop naar de televisie, zet de televisie aan, loop naar de bank, op de bank zitten, en televisie kijken.
Hoofdauteur Xavier Puig Fernandez werkt aan de Virtual Home-interface. Krediet:Jason Dorfman, MIT CSAIL
Nadat de programma's zijn gemaakt, het team voerde ze naar de VirtualHome 3D-simulator om er video's van te maken. Vervolgens, een virtuele agent zou de taken uitvoeren die door de programma's zijn gedefinieerd, of het nu televisie kijken was, een pan op het fornuis zetten, of het aan- en uitzetten van een broodrooster.
Het eindresultaat is niet alleen een systeem om robots te trainen om klusjes te doen, maar ook een grote database van huishoudelijke taken beschreven in natuurlijke taal. Bedrijven zoals Amazon die werken aan de ontwikkeling van Alexa-achtige robotsystemen in huis, zouden dit soort gegevens uiteindelijk kunnen gebruiken om hun modellen te trainen om complexere taken uit te voeren.
Het model van het team toonde met succes aan dat, hun agenten zouden kunnen leren een programma te reconstrueren, en daarom een taak uitvoeren, een beschrijving gegeven:"giet melk in glas", of een videodemonstratie van de activiteit.
"Dit werk zou in de toekomst echte robot-persoonlijke assistenten kunnen vergemakkelijken, " zegt Qiao Wang, een onderzoeksassistent in de kunsten, media, en techniek aan de Arizona State University. "In plaats van elke taak die door de fabrikant is geprogrammeerd, de robot kan taken leren door te luisteren naar of te kijken naar de specifieke persoon die hij begeleidt. Hierdoor kan de robot taken op een gepersonaliseerde manier uitvoeren, of zelfs op een dag een emotionele band oproepen als resultaat van dit gepersonaliseerde leerproces."
In de toekomst, het team hoopt de robots te trainen met behulp van echte video's in plaats van simulatievideo's in Sims-stijl, waarmee een robot zou kunnen leren door simpelweg naar een YouTube-video te kijken. Het team werkt ook aan de implementatie van een beloningsleersysteem waarbij de agent positieve feedback krijgt als hij taken correct uitvoert.
"Je kunt je een omgeving voorstellen waar robots thuis helpen met klusjes en uiteindelijk kunnen anticiperen op persoonlijke wensen en behoeften, of dreigende actie, ", zegt Puig. "Dit kan vooral nuttig zijn als ondersteunende technologie voor ouderen, of mensen met een beperkte mobiliteit."
Wetenschap © https://nl.scienceaq.com