science >> Wetenschap >  >> Elektronica

Onderzoekers maken het gezicht van Android-kinderen opvallend expressiever

het nieuw ontwikkelde gezicht van de Affetto-kinderrobot voor Android. Affetto's gezicht werd voor het eerst onthuld in gepubliceerd onderzoek in 2011. Credit:Osaka University

Japans genegenheid voor robots is geen geheim. Maar is het gevoel wederzijds in de geweldige androïden van het land? Robotici zijn nu een stap dichter bij het geven van betere gezichtsuitdrukkingen aan androïden om mee te communiceren.

Ondanks vorderingen, het vastleggen van humanistische uitdrukkingen in een robotachtig gezicht blijft een ongrijpbare uitdaging. Hoewel hun systeemeigenschappen over het algemeen zijn aangepakt, gezichtsuitdrukkingen van androïden zijn niet in detail onderzocht. Dit is te wijten aan factoren zoals het enorme bereik en de asymmetrie van natuurlijke menselijke gezichtsbewegingen, de beperkingen van materialen die worden gebruikt in de Android-huid, en de ingewikkelde techniek en wiskunde die de bewegingen van robots aandrijven.

Een drietal onderzoekers van de Osaka University heeft nu een methode gevonden om gezichtsbewegingen op het hoofd van hun Android-robotkind te identificeren en kwantitatief te evalueren. genaamd Affetto, het model van de eerste generatie werd gerapporteerd in een publicatie uit 2011. De onderzoekers hebben nu een systeem ontwikkeld om de tweede generatie Affetto expressiever te maken. Hun bevindingen bieden een pad voor androïden om grotere reeksen van emoties uit te drukken, en uiteindelijk een diepere interactie met mensen hebben.

De onderzoekers rapporteerden hun bevindingen in het tijdschrift Grenzen in robotica en AI .

"Oppervlaktevervormingen zijn een belangrijk probleem bij het beheersen van Android-gezichten, " studie co-auteur Minoru Asada legt uit. "Bewegingen van hun zachte gezichtshuid creëren instabiliteit, en dit is een groot hardwareprobleem waarmee we worstelen. We zochten een betere manier om het te meten en te beheersen."

De onderzoekers onderzochten 116 verschillende gezichtspunten op Affetto om de driedimensionale beweging te meten. Gezichtspunten werden ondersteund door zogenaamde deformatie-eenheden. Elke eenheid bestaat uit een reeks mechanismen die een kenmerkende verdraaiing van het gezicht creëren, zoals het verlagen of verhogen van een deel van een lip of ooglid. Metingen hiervan werden vervolgens onderworpen aan een wiskundig model om hun oppervlaktebewegingspatronen te kwantificeren.

Terwijl de onderzoekers problemen ondervonden bij het balanceren van de uitgeoefende kracht en bij het aanpassen van de synthetische huid, ze konden hun systeem gebruiken om de vervormingseenheden aan te passen voor een nauwkeurige controle van de bewegingen van het gezichtsoppervlak van Affetto.

"Android-robotgezichten zijn nog steeds een black box-probleem:ze zijn geïmplementeerd, maar zijn alleen beoordeeld in vage en algemene termen, " studie eerste auteur Hisashi Ishihara zegt. "Onze precieze bevindingen zullen ons in staat stellen om Android-gezichtsbewegingen effectief te controleren om meer genuanceerde uitdrukkingen te introduceren, zoals glimlachen en fronsen."