Wetenschap
Krediet:CC0 Publiek Domein
In een online marktplaats als Airbnb, hostprofielen kunnen het verschil betekenen tussen een geboekte kamer en een lege kamer. Te pittig, te lang, te veel uitroeptekens? Taal is van cruciaal belang in de zoektocht van een gebruiker naar vertrouwen en authenticiteit, cruciale factoren in elke online uitwisseling.
Met zoveel op het spel, moeten Airbnb-hosts vertrouwen op een algoritme om hun profielen voor hen te schrijven?
Dat hangt ervan af, volgens nieuw onderzoek van Cornell en Stanford University. Als iedereen algoritmisch gegenereerde profielen gebruikt, gebruikers vertrouwen hen. Echter, als slechts enkele hosts ervoor kiezen om schrijfverantwoordelijkheden te delegeren aan kunstmatige intelligentie, ze worden waarschijnlijk gewantrouwd. Onderzoekers noemden dit het "replicerende effect" - een knipoog naar de film "Blade Runner".
"Deelnemers waren op zoek naar signalen die mechanisch aanvoelden versus taal die menselijker en emotioneler aanvoelde, " zei Maurice Jakesch, een doctoraalstudent in informatiewetenschappen aan Cornell Tech en hoofdauteur van "AI-Mediated Communication:How the Perception that Profile Text werd Written by AI Affects Trustworthiness, " die zal worden gepresenteerd op de ACM Conference on Human Factors in Computing Systems, 4-9 mei in Glasgow, Schotland.
"Ze hadden hun eigen theorieën over hoe een door AI gegenereerd profiel eruit zou zien, "Zei Jakesch. "Als er ernstige spelfouten in een profiel zouden staan, ze zouden zeggen dat het menselijker is, overwegende dat als iemands profiel onsamenhangend of zinloos leek, ze gingen ervan uit dat het AI was."
AI staat voor een revolutie teweegbrengen in natuurlijke taaltechnologieën en hoe mensen met elkaar omgaan. Mensen ervaren al wat AI-gemedieerde communicatie:Gmail scant de inhoud van onze binnenkomende e-mails en genereert suggesties, met één klik "slimme antwoorden, " en een nieuwe generatie schrijfhulpmiddelen corrigeert niet alleen onze spelfouten, maar polijst onze schrijfstijl.
"We beginnen de eerste voorbeelden te zien van kunstmatige intelligentie die als bemiddelaar tussen mensen optreedt, maar het is een kwestie van:'Willen mensen dat?'", zei Jakesch. "We kunnen een situatie tegenkomen waarin door AI gemedieerde communicatie zo wijdverbreid is dat het onderdeel wordt van hoe mensen evalueren wat ze online zien."
In de studie, onderzoekers probeerden te onderzoeken of gebruikers algoritmisch geoptimaliseerde of gegenereerde representaties vertrouwen, vooral op online marktplaatsen. Het team voerde drie experimenten uit, honderden deelnemers in te schakelen op Amazon Mechanical Turk om echte, door mensen gegenereerde Airbnb-profielen. In sommige gevallen, deelnemers werden ertoe gebracht te geloven dat sommige of alle profielen werden gegenereerd via een geautomatiseerd AI-systeem. De deelnemers werd vervolgens gevraagd om elk profiel een betrouwbaarheidsscore te geven.
Toen hen werd verteld dat ze ofwel alle door mensen gegenereerde of alle door AI gegenereerde profielen bekeken, deelnemers leken de een niet meer te vertrouwen dan de ander. Ze beoordeelden de door mensen en AI gegenereerde profielen ongeveer hetzelfde.
Maar dat veranderde toen deelnemers te horen kregen dat ze een gemengde set profielen aan het bekijken waren. Overgelaten om te beslissen of de profielen die ze lazen werden geschreven door een mens of een algoritme, gebruikers wantrouwden degenen waarvan ze dachten dat ze door machines waren gegenereerd.
"Hoe meer deelnemers dachten dat een profiel door AI was gegenereerd, hoe minder ze geneigd waren de gastheer te vertrouwen, ook al zijn de profielen die ze beoordeelden geschreven door de eigenlijke hosts, ’ schreven de auteurs.
Wat is er zo slecht aan het gebruik van AI-gemedieerde communicatie? Zoals een studiedeelnemer het uitdrukte, AI-gegenereerde profielen "kunnen handig zijn, maar ook een beetje lui. Waardoor ik me afvraag waar ze nog meer lui over zullen zijn."
Naarmate AI meer gemeengoed en krachtiger wordt, fundamentele richtlijnen, ethiek en praktijk worden van vitaal belang, aldus de onderzoekers. Hun bevindingen suggereren dat er manieren zijn om AI-communicatietools te ontwerpen die het vertrouwen van menselijke gebruikers verbeteren. Voor starters, Jakesch zei, bedrijven zouden een embleem kunnen toevoegen aan alle door AI geproduceerde tekst, zoals sommige media al gebruiken voor door algoritmen gecreëerde inhoud. Ontwerp- en beleidsrichtlijnen en normen voor het gebruik van AI-gemedieerde communicatie zijn nu het onderzoeken waard, hij voegde toe.
"De waarde van deze technologieën zal afhangen van hoe ze zijn ontworpen, hoe ze aan mensen worden gecommuniceerd en of we in staat zijn om een gezond ecosysteem om hen heen te vestigen, zei hij. "Het komt met een reeks nieuwe ethische vragen:is het acceptabel dat mijn algoritmische assistent een welsprekendere versie van mij genereert? Mag een algoritme mijn kinderen welterusten namens mij? Dat zijn vragen die besproken moeten worden."
Het papier was co-auteur met Mor Naäman, universitair hoofddocent informatica aan het Jacobs Technion-Cornell Institute bij Cornell Tech; Xiao Ma, een doctoraatsstudent in informatiewetenschappen aan Cornell Tech; en Megan French en Jeffrey T. Hancock van Stanford.
Wetenschap © https://nl.scienceaq.com