science >> Wetenschap >  >> Elektronica

Aanwijzingen en acties gebruiken om mensen te helpen omgaan met kunstmatige intelligentie

Leren hoe mensen omgaan met AI is een belangrijke stap om machines op een voordelige manier in de samenleving te integreren. Krediet:Pixabay

Door te leren hoe mensen omgaan met machines die op kunstmatige intelligentie zijn gebaseerd, en die kennis te gebruiken om het vertrouwen van mensen in AI te vergroten, kunnen we mogelijk in harmonie leven met het steeds groter wordende aantal robots. chatbots en andere slimme machines in ons midden, volgens een Penn State-onderzoeker.

In een paper gepubliceerd in het huidige nummer van het Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro, hoogleraar media-effecten aan het Donald P. Bellisario College of Communications en mededirecteur van het Media Effects Research Laboratory, heeft een manier voorgesteld, of kader, om AI te bestuderen, die onderzoekers kunnen helpen beter te onderzoeken hoe mensen omgaan met kunstmatige intelligentie, of mens-AI-interactie (HAII).

"Dit is een poging om systematisch te kijken naar alle manieren waarop kunstmatige intelligentie gebruikers psychologisch kan beïnvloeden, vooral op het gebied van vertrouwen, " zei Sundar, die ook een filiaal is van Penn State's Institute for Computational and Data Sciences (ICDS). "Hopelijk, het theoretische model dat in dit artikel naar voren wordt gebracht, zal onderzoekers een kader geven, evenals een woordenschat, voor het bestuderen van de sociaal-psychologische effecten van AI."

Het raamwerk identificeert twee paden - signalen en acties - waarop AI-ontwikkelaars zich kunnen concentreren om vertrouwen te winnen en de gebruikerservaring te verbeteren. zei Sundar. Cues zijn signalen die een reeks mentale en emotionele reacties van mensen kunnen veroorzaken.

"De cue-route is gebaseerd op oppervlakkige indicatoren van hoe de AI eruitziet of wat hij schijnbaar doet, " hij legde uit.

Sundar voegde eraan toe dat er verschillende aanwijzingen zijn die van invloed zijn op het vertrouwen van gebruikers in AI. De signalen kunnen net zo duidelijk zijn als het gebruik van mensachtige kenmerken, zoals een menselijk gezicht dat sommige robots hebben, of een mensachtige stem die virtuele assistenten zoals Siri en Alexa gebruiken.

Andere signalen kunnen subtieler zijn, zoals een verklaring op de interface waarin wordt uitgelegd hoe het apparaat werkt, zoals in wanneer Netflix uitlegt waarom het een bepaalde film aanbeveelt aan kijkers.

Maar, elk van deze signalen kan verschillende mentale snelkoppelingen of heuristieken veroorzaken, volgens Sundar.

"Wanneer een AI voor de gebruiker wordt geïdentificeerd als een machine in plaats van een mens, zoals vaak gebeurt in moderne chatbots, het activeert de 'machine heuristiek, " of een mentale kortere weg die ons ertoe brengt automatisch alle stereotypen die we over machines hebben, toe te passen, "zei Sundar. "We zouden kunnen denken dat machines nauwkeurig en precies zijn, maar we kunnen computers en machines ook als koud en onverzettelijk beschouwen." Deze stereotypen bepalen op hun beurt hoeveel we het AI-systeem vertrouwen.

Sundar suggereerde dat automatische pilootsystemen in vliegtuigen een voorbeeld zijn van hoe te veel vertrouwen in AI kan leiden tot negatieve gevolgen. Piloten kunnen zo impliciet vertrouwen op het automatische pilootsysteem dat ze hun waakzaamheid verslappen en niet voorbereid zijn op plotselinge veranderingen in de prestaties van het vliegtuig of storingen die hun tussenkomst vereisen. Hij noemt dit soort 'automatiseringsbias' als een indicatie van ons diepe vertrouwen in machineprestaties.

Anderzijds, AI kan bij sommige mensen ook leiden tot negatieve vooroordelen.

"Het tegenovergestelde van automatiseringsbias zou algoritme-aversie zijn, "zei Sundar. "Er zijn mensen die gewoon een afkeer hebben omdat, misschien in het verleden, ze werden verbrand door een algoritme en wantrouwen AI nu diep. Ze werden waarschijnlijk voor de gek gehouden door 'deepfakes', dit zijn gefabriceerde video's die zijn gemaakt met behulp van AI-technologie, of ze kregen de verkeerde productaanbeveling van een e-commercesite, of het gevoel hadden dat hun privacy werd geschonden door AI die snuffelde in hun eerdere zoekopdrachten en aankopen."

Sundar adviseerde ontwikkelaars om bijzondere aandacht te besteden aan de signalen die ze gebruikers kunnen bieden.

"Als je duidelijke aanwijzingen geeft op de interface, je kunt helpen vorm te geven aan hoe de gebruikers reageren, maar als je geen goede aanwijzingen geeft, je laat de eerdere ervaring van de gebruiker en volkstheorieën, of naïeve ideeën, over algoritmen om over te nemen, ' zei Sundar.

Naast het geven van aanwijzingen, het vermogen van AI om met mensen te communiceren, kan ook de gebruikerservaring beïnvloeden, volgens Sundar. Hij noemt dit de 'actieroute'.

"De actieroute gaat echt over samenwerken, " zei Sundar. "AI's zouden eigenlijk met ons moeten samenwerken. De meeste nieuwe AI-tools:de slimme luidsprekers, robots en chatbots - zijn zeer interactief. In dit geval, het zijn niet alleen zichtbare aanwijzingen over hoe ze eruitzien en wat ze zeggen, maar over hoe ze met je omgaan."

In zowel acties als signalen, Sundar stelt voor dat ontwikkelaars het juiste evenwicht bewaren. Bijvoorbeeld, een cue die de gebruiker niet transparant vertelt dat AI aan het werk is in het apparaat, kan negatieve cues veroorzaken, maar als de keu te veel details geeft, mensen kunnen proberen de interactie met de AI te corrumperen of te 'spelen'. "Het is daarom heel belangrijk om de juiste hoeveelheid transparantie op de interface te creëren, " hij zei.

"Als je slimme speaker je te veel vragen stelt, of te veel met je omgaat, dat kan een probleem zijn, te, " zei Sundar. "Mensen willen samenwerking. Maar ze willen ook hun kosten minimaliseren. Als de AI je constant vragen stelt, dan het hele punt van AI, namelijk gemak, is weg."

Sundar zei dat hij verwacht dat het raamwerk van signalen en acties onderzoekers zal begeleiden bij het testen van deze twee paden naar AI-vertrouwen. Dit zal bewijs opleveren om te informeren hoe ontwikkelaars en ontwerpers AI-aangedreven tools en technologie voor mensen creëren.

AI-technologie evolueert zo snel dat veel critici aandringen om bepaalde toepassingen volledig te verbieden. Sundar zei dat het een noodzakelijke stap is om onderzoekers de tijd te geven om grondig te onderzoeken en te begrijpen hoe mensen omgaan met technologie, om de samenleving te helpen de voordelen van de apparaten te benutten. terwijl de mogelijke negatieve gevolgen worden geminimaliseerd.

"We zullen fouten maken, " zei Sundar. "Van de drukpers tot het internet, nieuwe mediatechnologieën hebben geleid tot negatieve gevolgen, maar ze hebben ook geleid tot veel meer voordelen. Het lijdt geen twijfel dat bepaalde manifestaties van AI ons zullen frustreren, maar op een gegeven moment we zullen naast AI moeten bestaan ​​en ze in ons leven moeten brengen."