science >> Wetenschap >  >> Elektronica

Vertrouwen we agenten van kunstmatige intelligentie om conflicten te bemiddelen? Niet helemaal

Krediet:CC0 Publiek Domein

We kunnen luisteren naar feiten van Siri of Alexa, of routebeschrijving van Google Maps of Waze, maar zouden we een virtuele agent, ondersteund door kunstmatige intelligentie, laten helpen bij het bemiddelen bij conflicten tussen teamleden? Een nieuwe studie zegt nog niet zomaar.

Onderzoekers van het USC en de Universiteit van Denver creëerden een simulatie waarin een team van drie personen werd ondersteund door een virtuele agent-avatar op het scherm in een missie die was ontworpen om mislukking te voorkomen en conflicten uit te lokken. Het onderzoek was bedoeld om virtuele agenten te beschouwen als potentiële bemiddelaars om de teamsamenwerking tijdens conflictbemiddeling te verbeteren.

Aan hen bekennen? Ja. Maar in het heetst van de strijd, zullen we luisteren naar virtuele agenten?

Terwijl sommige onderzoekers (Gale Lucas en Jonathan Gratch van de USC Viterbi School Engineering en het USC Institute for Creative Technologies die hebben bijgedragen aan deze studie), had eerder ontdekt dat een-op-een menselijke interacties met een virtual agent-therapeut meer bekentenissen opleverden, in deze studie "Conflictbemiddeling in mens-machineteaming:een virtuele agent gebruiken om missieplanning en debriefing te ondersteunen, " teamleden waren minder geneigd om in contact te komen met een mannelijke virtuele agent genaamd "Chris" wanneer er een conflict ontstond.

Deelnemende leden van het team hebben het apparaat niet fysiek aangevallen (zoals we hebben gezien dat mensen robots aanvielen in virale posts op sociale media), maar waren eerder minder betrokken en luisterden minder snel naar de input van de virtuele agent zodra er een storing was opgetreden en er conflicten tussen teamleden ontstonden.

Het onderzoek werd uitgevoerd in een militaire academieomgeving waarin 27 scenario's werden ontworpen om te testen hoe het team met een virtuele agent zou reageren op mislukking en het zorgende conflict. De virtuele agent werd op geen enkele manier genegeerd. Uit het onderzoek bleek dat de teams sociaal reageerden op de virtuele agent tijdens het plannen van de missie die ze kregen toegewezen (knikken, glimlachen en de input van de virtuele agent herkennen door hem te bedanken) maar hoe langer de oefening vorderde, hun betrokkenheid bij de virtuele agent nam af. De deelnemers gaven de virtuele agent niet helemaal de schuld van hun falen.

"Teamcohesie bij het samen uitvoeren van complexe taken is een zeer complexe en belangrijke factor, " zegt hoofdauteur, Kerstin Haring, een assistent-professor computerwetenschappen aan de Universiteit van Denver.

"Onze resultaten laten zien dat virtuele agenten en mogelijk sociale robots een goede conflictbemiddelaar kunnen zijn in allerlei soorten teams. Het zal heel interessant zijn om de interventies en sociale reacties te ontdekken om uiteindelijk virtuele agenten naadloos te integreren in menselijke teams om ze beter te laten presteren ."

Studie co-auteur, Gal Lucas, Onderzoeksassistent Informatica bij USC, en een onderzoeker aan het Institute for Creative Technologies, voegt eraan toe dat sommige feedback van studiedeelnemers aangeeft dat ze virtuele agenten als neutraal en onbevooroordeeld beschouwden. Ze wil graag doorgaan met het werk om te zien of virtuele agenten kunnen worden toegepast "om ons te helpen betere beslissingen te nemen" en aandringen op "wat er nodig is om ons virtuele agenten te laten vertrouwen".

Hoewel deze studie werd uitgevoerd in een militaire academie met bijzondere structuren, de onderzoekers hopen dit project te ontwikkelen om teamprocessen in allerlei werkomgevingen te verbeteren.