science >> Wetenschap >  >> Elektronica

Kan het vermogen van een robot om te spreken van invloed zijn op het vertrouwen van menselijke gebruikers?

Epi, de humanoïde robot die door Krantz en zijn collega's wordt gebruikt, is een humanoïde roboticaplatform dat wordt gebruikt voor mens-robot-interactie-experimenten en cognitieve modellering. Het is ontwikkeld aan de Lund University Cognitive Science. Krediet:Krantz, Balkenius &Johansson.

Naarmate robots steeds geavanceerder worden, zullen ze waarschijnlijk hun weg vinden naar veel situaties in de echte wereld, waaronder huizen, kantoren, winkelcentra, luchthavens, zorginstellingen en assistentiewoningen. Om het wijdverbreide gebruik en de implementatie ervan te bevorderen, moeten robotici er echter voor zorgen dat robots goed worden waargenomen en vertrouwd door mensen.

Onderzoekers van de Universiteit van Lund in Zweden hebben onlangs een onderzoek uitgevoerd om beter te begrijpen wat het vertrouwen van een menselijke gebruiker in robots beïnvloedt. Hun paper, dat zal verschijnen in de procedure voor de SCRITA-workshop op IEEE Ro-man 2022, probeerde specifiek te bepalen of het spraakvermogen van een humanoïde robot het vertrouwen van een menselijke gebruiker erin kan beïnvloeden.

"Het idee voor de paper ontstond nadat we onverwachte resultaten hadden gevonden in een eerder experiment", vertelde Amandus Krantz, een van de onderzoekers die het onderzoek uitvoerde, aan TechXplore. "We onderzochten hoe gebrekkig kijkgedrag het vertrouwen in een humanoïde sociale robot kan beïnvloeden. De resultaten toonden een significant verschil in vertrouwen voor en na interactie met de robot in alle omstandigheden, maar geen afname in vertrouwen door het gebrekkige gedrag. Het enige onderdeel dat tussen de omstandigheden onveranderd was, was een korte toespraak van de robot."

Eerdere literatuur over robotica suggereert dat het vertrouwen van mensen in humanoïde robots kan afhangen van hoe intelligent ze hen waarnemen. Op basis van de bevindingen die ze in hun vorige onderzoek verzamelden, begonnen Krantz en zijn collega's dus na te denken over de mogelijkheid dat het vermogen van een robot om te spreken, wat als intelligentie kan worden gezien, van invloed is op hoeveel een menselijke gebruiker de robot vertrouwt.

"We theoretiseerden dat de spraakcomponent misschien de waargenomen intelligentie van de robot verhoogde, genoeg dat de resulterende vertrouwensverandering de vertrouwensverandering van het foutieve gedrag maskeerde," zei Krantz.

Om hun hypothese te testen, voerden de onderzoekers hetzelfde experiment uit dat ze in hun vorige werk uitvoerden, maar waarin de robot niet sprak. Ze ontdekten dat wanneer de robot niet sprak, gebruikers de robot minder vertrouwden en het gebrekkige gedrag opmerkten. Dit suggereert dat het vermogen van de robot om te spreken het vertrouwen van de deelnemers in de robot zou kunnen vergroten.

"Elk van onze studiedeelnemers kreeg een video te zien van een humanoïde robot die defect of niet-defect gedrag vertoont en spreekt of stil is", legt Krantz uit. "Tijdens het spreken gaf de robot enkele feiten over een van een reeks objecten die aan hem werden gepresenteerd. Na het zien van deze video kregen de deelnemers een reeks vragenlijsten die waren ontworpen om hun vertrouwen in de robot in te schatten, samen met hun percepties over de intelligentie, sympathie en levendigheid van de robots (hoe levendig de robot lijkt)."

De onderzoekers voerden hun experimenten online uit, waarbij 227 deelnemers betrokken waren. Toen ze de reacties van de deelnemers analyseerden, ontdekten ze dat over het algemeen de niet-defecte robots het meest vertrouwd waren. Interessant is echter dat wanneer een defecte robot kon praten, deelnemers meldden dat ze hem bijna net zo vertrouwden als niet-defecte robots.

"Voor zover we weten, is dit de eerste studie die heeft onderzocht hoe het vermogen om te spreken het vertrouwen beïnvloedt", zei Krantz. "Er zijn enkele vergelijkbare onderzoeken, maar ze hebben de neiging om het effect van de inhoud van de toespraak te onderzoeken (meestal verontschuldigen voor een fout), in plaats van het vermogen om te spreken. Wat betreft praktische implicaties, geven de resultaten aan dat het implementeren van een of andere vorm van menselijke -achtige spraakcomponent kan gunstig zijn voor fabrikanten van consumentenrobots (zoals robotstofzuigers) die het ongebruik van hun robots willen verminderen na een bedieningsfout."

Het recente werk van dit team van onderzoekers biedt waardevol en interessant inzicht in hoe het vermogen van een robot om te spreken van invloed kan zijn op hoe mensen hem waarnemen en zich ermee verhouden. In de toekomst zouden hun bevindingen roboticabedrijven en -ontwikkelaars kunnen aanmoedigen om meer nadruk te leggen op de spraak van een robot, als middel om het vertrouwen van potentiële gebruikers erin te vergroten.

"De experimenten die in het artikel worden beschreven, zijn online uitgevoerd, waarvan bekend is dat ze mogelijk enigszins andere resultaten opleveren dan fysieke mens-robot-interactie-experimenten, dus we plannen een vervolgonderzoek waarbij deelnemers interactie hebben met de robot in een echte wereldomgeving ’, aldus Krantz. "We plannen ook een reeks onderzoeken die onderzoeken hoe vertrouwen wordt beïnvloed door andere aspecten van een humanoïde robot, zoals blik of pupilverwijding/vernauwing." + Verder verkennen

Studie onderzoekt hoe de innerlijke spraak van een robot het vertrouwen van een menselijke gebruiker beïnvloedt

© 2022 Science X Network