Wetenschap
Krediet:CC0 Publiek Domein
Robots zouden kunnen worden geleerd om menselijke emoties te herkennen aan onze bewegingen, blijkt uit een nieuwe studie.
Onderzoekers ontdekten dat mensen opwinding konden herkennen, droefheid, agressie, en verveling door de manier waarop mensen zich bewogen, zelfs als ze hun gezichtsuitdrukkingen niet konden zien of hun stem niet konden horen.
Hun bevindingen suggereren dat robots kunnen leren dezelfde bewegingen te gebruiken, naast gezichtsuitdrukkingen en tone of voice, menselijke innerlijke toestanden te herkennen.
Het wekt het vooruitzicht dat robots, al gebruikt om tweede talen te leren, kan herkennen wanneer studenten zich vervelen, en klantenservicerobots kunnen identificeren wanneer mensen boos of gestrest zijn.
Dr. Charlotte Edmunds, van de Warwick Business School, zei:"Een van de belangrijkste doelen op het gebied van interactie tussen mens en robot is het creëren van machines die menselijke emoties kunnen herkennen en dienovereenkomstig kunnen reageren.
"Onze resultaten suggereren dat het redelijk is om een machine learning-algoritme te verwachten, en dus een robot, een scala aan emoties en sociale interacties herkennen met behulp van bewegingen, poseert, en gezichtsuitdrukkingen. De potentiële toepassingen zijn enorm."
Het onderzoek is uitgevoerd door onderzoekers van de Warwick Business School, Universiteit van Plymouth, Donders Center for Cognition aan de Radboud Universiteit in Nederland, en het Bristol Robotics Lab aan de Universiteit van West-Engeland. Het is gepubliceerd in het tijdschrift Grenzen in robotica en AI .
Het team van psychologen en computerwetenschappers filmde paren kinderen die speelden met een robot en een computer ingebouwd in een tafel met een touchscreen.
De video's werden getoond aan 284 studiedeelnemers, die werd gevraagd om te beslissen of de kinderen opgewonden waren, verveeld, of verdrietig. Er werd ook gevraagd of de kinderen meewerkten, concurreren, of als een van de kinderen een dominante rol had gespeeld in de relatie.
Sommige deelnemers hebben de originele video's bekeken. Een tweede groep zag de beelden teruggebracht tot 'stickman'-figuren die exact dezelfde bewegingen lieten zien.
Leden van beide groepen waren het eens over hetzelfde emotionele label voor de kinderen, vaker dan zou worden verwacht als ze gissen.
De onderzoekers trainden vervolgens een machine learning-algoritme om de clips te labelen, het type sociale interactie identificeren, de getoonde emoties, en de kracht van de innerlijke toestand van elk kind, zodat het kan vergelijken welk kind zich meer verdrietig of opgewonden voelde.
Dr. Edmunds zei:"Robotbezorgdiensten worden al uitgeprobeerd, maar mensen hebben de neiging om ze aan te vallen of te vernielen, vaak omdat ze zich bedreigd voelen.
"Het doel is om een robot te maken die kan reageren op menselijke emoties in moeilijke situaties en zichzelf uit de problemen kan halen zonder dat hij gecontroleerd hoeft te worden of verteld wat hij moet doen.
“Dat gebeurt op dit moment niet, omdat robots de neiging hebben om scripts te volgen."
Madeleine Bartlett, van de Universiteit van Plymouth, zei:"Het is belangrijk dat een sociale robot menselijke interne toestanden kan herkennen, zoals spanning, en hun kracht of ernst.
"Verschillende niveaus van stress vereisen verschillende reacties. Lage stress kan ervoor zorgen dat de robot zich terugtrekt van de mens, terwijl een hoge mate van stress het beste kan worden aangepakt door de robot zijn excuses aan te bieden en de interactie te verlaten."
Wetenschap © https://nl.scienceaq.com