Wetenschap
Krediet:Pixabay/CC0 publiek domein
Onderzoekers van de University of Kentucky, University of Technology Sydney en University of Illinois-Chicago publiceerden een nieuw artikel in het Journal of Marketing dat onderzoekt de implicaties van klantrespons en tevredenheid van het gebruik van AI-agenten versus menselijke agenten.
De studie, gepubliceerd in het Journal of Marketing, is getiteld "Slecht nieuws? Stuur een AI. Goed nieuws? Stuur een mens" en is geschreven door Aaron Garvey, TaeWoo Kim, Adam Duhachek.
Zijn we meer vergevingsgezind ten opzichte van een kunstmatige intelligentie (AI) -agent dan een mens als we in de steek worden gelaten? Minder waardering voor een AI-bot dan voor een mens als we worden geholpen? Nieuw onderzoek onderzoekt deze vragen en ontdekt dat consumenten anders reageren op gunstige en ongunstige behandeling door een AI-agent dan een ander mens.
Consumenten en marketingmanagers bevinden zich momenteel in een periode van technologische transitie waarin AI-agenten steeds vaker menselijke vertegenwoordigers vervangen. AI-agenten zijn ingezet in een breed scala van consumentendomeinen om klanttransacties af te handelen, waaronder traditionele detailhandel, reizen, het delen van ritten en woningen, en zelfs juridische en medische diensten. Gezien de geavanceerde informatieverwerkingscapaciteiten en arbeidskostenvoordelen van AI-agenten, wordt verwacht dat de overgang van menselijke vertegenwoordigers voor het beheer van producten en diensten zal doorgaan. Wat zijn echter de implicaties voor de reactie en tevredenheid van klanten?
De onderzoekers vinden dat wanneer een product- of dienstaanbod slechter is dan verwacht, consumenten beter reageren wanneer ze te maken hebben met een AI-agent. Voor een aanbod dat beter is dan verwacht, reageren consumenten daarentegen gunstiger op een menselijke tussenpersoon. Garvey legt uit:"Dit gebeurt omdat AI-agenten, vergeleken met menselijke agenten, worden gezien als zwakkere persoonlijke bedoelingen bij het nemen van beslissingen. Dat wil zeggen, aangezien een AI-agent een niet-menselijke machine is, geloven consumenten doorgaans niet dat het gedrag van een AI-agent wordt gedreven door onderliggende egoïsme of vriendelijkheid." Als gevolg hiervan zijn consumenten van mening dat AI-agenten geen egoïstische bedoelingen hebben (die doorgaans worden bestraft) in het geval van een ongunstig aanbod en geen welwillende bedoelingen (die doorgaans worden beloond) in het geval van een gunstig aanbod.
Het ontwerpen van een AI-agent die er menselijker uitziet, kan de reactie van de consument veranderen. Een servicerobot die er bijvoorbeeld menselijker uitziet (bijvoorbeeld met een menselijke lichaamsstructuur en gelaatstrekken) lokt gunstiger reacties uit op een beter dan verwacht aanbod dan een meer machinale AI-agent zonder menselijke kenmerken. Dit gebeurt omdat AI-agenten die menselijker zijn, worden gezien als sterkere bedoelingen bij het doen van het aanbod.
Wat betekent dit voor marketingmanagers? Kim zegt:"Voor een marketeer die op het punt staat slecht nieuws aan een klant te brengen, zal een AI-vertegenwoordiger de reactie van die klant verbeteren. Dit zou de beste aanpak zijn voor negatieve situaties zoals onverwacht hoge prijsaanbiedingen, annuleringen, vertragingen, negatieve evaluaties, statuswijzigingen, productdefecten, afwijzingen, servicestoringen en stockouts. Goed nieuws wordt echter het beste door een mens gebracht. Onverwachte positieve resultaten kunnen versnelde leveringen, kortingen, upgrades, servicebundels, exclusieve aanbiedingen, loyaliteitsbeloningen en klantpromoties zijn.
Managers kunnen onze bevindingen toepassen om prioriteit te geven (vs. uit te stellen) van mens-naar-AI-rolovergangen in situaties waarin negatieve (vs. positieve) interacties vaker voorkomen. Bovendien kan de selectieve rekrutering van een AI-agent om bepaalde negatieve informatie bekend te maken, zelfs wanneer een rolovergang niet volledig wordt overgedragen aan een AI-agent, nog steeds voordelig zijn. Bedrijven die al zijn overgestapt op consumentengerichte AI-agenten, waaronder de veelheid aan online en mobiele applicaties die op AI gebaseerde algoritmen gebruiken om aanbiedingen te maken en te beheren, kunnen ook profiteren van onze bevindingen. Uit ons onderzoek blijkt dat AI-agenten selectief moeten worden gemaakt om er min of meer menselijk uit te zien, afhankelijk van de situatie. Voor consumenten onthullen deze bevindingen een "blinde vlek" bij het omgaan met AI-agenten, vooral bij het overwegen van aanbiedingen die niet aan de verwachtingen voldoen. Het onderzoek onthult inderdaad een ethisch dilemma rond het gebruik van AI-agenten:is het gepast om AI te gebruiken om de weerstand van de consument tegen slechte aanbiedingen te omzeilen? "We hopen dat het bewust maken van consumenten van dit fenomeen hun beslissingskwaliteit zal verbeteren bij het omgaan met AI-agenten, terwijl we ook marketingmanagers technieken bieden, zoals het menselijker maken van AI in bepaalde contexten, om dit dilemma te beheersen", zegt Duhachek.
Wetenschap © https://nl.scienceaq.com