Wetenschap
Tegoed:CC0 Publiek Domein
Wanneer robots fouten maken - en dat doen ze van tijd tot tijd - hangt het herstel van het vertrouwen bij menselijke collega's af van hoe de machines de fouten accepteren en hoe menselijk ze lijken, volgens onderzoek van de Universiteit van Michigan.
In een onderzoek waarin meerdere strategieën voor het herstellen van vertrouwen werden onderzocht - verontschuldigingen, ontkenningen, verklaringen of beloften - ontdekten de onderzoekers dat bepaalde benaderingen gericht op menselijke collega's beter zijn dan andere en vaak worden beïnvloed door hoe de robots eruitzien.
"Robots zijn zeker een technologie, maar hun interacties met mensen zijn sociaal en we moeten rekening houden met deze sociale interacties als we hopen dat mensen comfortabel vertrouwen op hun robotcollega's", zegt Lionel Robert, universitair hoofddocent aan de UM School of Informatie.
"Robots zullen fouten maken wanneer ze met mensen werken, waardoor het vertrouwen van mensen in hen afneemt. Daarom moeten we manieren ontwikkelen om het vertrouwen tussen mensen en robots te herstellen. Specifieke strategieën voor het herstellen van vertrouwen zijn effectiever dan andere en hun effectiviteit kan afhangen van hoe menselijk de robot is. verschijnt."
Voor hun studie gepubliceerd in de Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication , Robert en promovendus Connor Esterwood onderzochten hoe de reparatiestrategieën - inclusief een nieuwe strategie van verklaringen - van invloed zijn op de elementen die vertrouwen stimuleren:bekwaamheid (competentie), integriteit (eerlijkheid) en welwillendheid (zorg voor de vertrouwenspersoon).
De onderzoekers rekruteerden 164 deelnemers om in een virtuele omgeving met een robot te werken en dozen op een lopende band te laden. De mens was de persoon voor kwaliteitsborging, die naast een robot werkte die serienummers moest lezen en 10 specifieke dozen moest laden. De ene robot was antropomorf of meer mensachtig, de andere meer mechanisch van uiterlijk.
De robots waren geprogrammeerd om met opzet een paar verkeerde dozen op te pakken en een van de volgende trustreparatieverklaringen af te leggen:"Het spijt me dat ik de verkeerde doos heb gekregen" (excuses), "Ik heb de juiste doos gekozen, dus er moet iets anders zijn weggegaan verkeerd" (ontkenning), "Ik zie dat dit het verkeerde serienummer was" (uitleg), of "Ik zal de volgende keer beter mijn best doen en de juiste doos krijgen" (belofte).
Eerdere studies hebben excuses, ontkenningen en beloften onderzocht als factoren voor vertrouwen of betrouwbaarheid, maar dit is de eerste die verklaringen beschouwt als een reparatiestrategie, en het had de grootste impact op de integriteit, ongeacht het uiterlijk van de robot.
Toen de robot menselijker was, was het nog gemakkelijker om vertrouwen te herstellen voor integriteit wanneer uitleg werd gegeven en voor welwillendheid wanneer verontschuldigingen, ontkenningen en uitleg werden aangeboden.
Net als in het vorige onderzoek leverden verontschuldigingen van robots meer integriteit en welwillendheid op dan ontkenningen. Beloften overtroffen excuses en ontkenningen als het ging om maatregelen van welwillendheid en integriteit.
Esterwood zei dat dit onderzoek aan de gang is en dat er meer onderzoek in het verschiet ligt met andere combinaties van vertrouwensherstel in verschillende contexten, met andere schendingen.
"Hierdoor kunnen we dit onderzoek verder uitbreiden en meer realistische scenario's onderzoeken zoals je die in het dagelijks leven zou kunnen zien," zei Esterwood. "Vertrouwt de uitleg van een barista-robot over wat er mis is gegaan en een belofte om het in de toekomst beter te doen, meer of minder dan een constructierobot?"
Wetenschap © https://nl.scienceaq.com