science >> Wetenschap >  >> Elektronica

Mensen die medemensen wantrouwen tonen meer vertrouwen in kunstmatige intelligentie

Krediet:Pixabay/CC0 publiek domein

Het wantrouwen van een persoon in mensen voorspelt dat ze meer vertrouwen zullen hebben in het vermogen van kunstmatige intelligentie om online inhoud te modereren, volgens een recent gepubliceerd onderzoek. De bevindingen hebben volgens de onderzoekers praktische implicaties voor zowel ontwerpers als gebruikers van AI-tools in sociale media.

"We hebben een systematisch patroon gevonden van individuen die minder vertrouwen hebben in andere mensen en meer vertrouwen hebben in de classificatie van AI", zegt S. Shyam Sundar, de James P. Jimirro-hoogleraar media-effecten bij Penn State. "Op basis van onze analyse lijkt dit te wijten te zijn aan het feit dat de gebruikers zich op het idee beroepen dat machines nauwkeurig, objectief en vrij van ideologische vooringenomenheid zijn."

De studie, gepubliceerd in het tijdschrift van New Media &Society ontdekte ook dat "power users", die ervaren gebruikers van informatietechnologie zijn, de tegenovergestelde tendens hadden. Ze vertrouwden de AI-moderators minder omdat ze geloven dat machines niet in staat zijn om nuances van menselijke taal te detecteren.

Uit het onderzoek bleek dat individuele verschillen, zoals wantrouwen jegens anderen en stroomverbruik, voorspellen of gebruikers positieve of negatieve eigenschappen van machines zullen oproepen wanneer ze worden geconfronteerd met een op AI gebaseerd systeem voor contentmoderatie, wat uiteindelijk hun vertrouwen in het systeem zal beïnvloeden. De onderzoekers suggereren dat het personaliseren van interfaces op basis van individuele verschillen de gebruikerservaring positief kan veranderen. Het type inhoudsmoderatie in het onderzoek omvat het controleren van posts op sociale media op problematische inhoud zoals haatzaaiende uitlatingen en zelfmoordgedachten.

"Een van de redenen waarom sommigen aarzelen om technologie voor contentmoderatie te vertrouwen, is dat we gewend zijn om vrijelijk onze mening online te uiten. We hebben het gevoel dat contentmoderatie ons dat kan ontnemen", zegt Maria D. Molina, een assistent-professor van communicatie kunsten en wetenschappen aan de Michigan State University, en de eerste auteur van dit artikel. "Deze studie kan een oplossing voor dat probleem bieden door te suggereren dat het voor mensen met negatieve stereotypen van AI voor contentmoderatie belangrijk is om de menselijke betrokkenheid te versterken bij het nemen van een beslissing. Aan de andere kant, voor mensen met positieve stereotypen van machines, we kunnen de kracht van de machine versterken door elementen zoals de nauwkeurigheid van AI te benadrukken."

De studie toonde ook aan dat gebruikers met een conservatieve politieke ideologie meer geneigd waren om AI-aangedreven moderatie te vertrouwen. Molina en co-auteur Sundar, die ook co-directeur is van het Media Effects Research Laboratory van Penn State, zeiden dat dit mogelijk voortkomt uit een wantrouwen in de reguliere media en sociale-mediabedrijven.

De onderzoekers rekruteerden 676 deelnemers uit de Verenigde Staten. De deelnemers kregen te horen dat ze hielpen bij het testen van een contentmoderatiesysteem dat in ontwikkeling was. Ze kregen definities van aanzetten tot haat en zelfmoordgedachten, gevolgd door een van de vier verschillende posts op sociale media. De berichten zijn gemarkeerd omdat ze aan die definities voldoen, of ze zijn niet gemarkeerd. De deelnemers kregen ook te horen of de beslissing om de post te markeren of niet werd genomen door AI, een mens of een combinatie van beide.

De demonstratie werd gevolgd door een vragenlijst die de deelnemers vroeg naar hun individuele verschillen. Verschillen waren onder meer hun neiging om anderen te wantrouwen, politieke ideologie, ervaring met technologie en vertrouwen in AI.

"We worden gebombardeerd met zoveel problematische inhoud, van verkeerde informatie tot haatzaaiende uitlatingen", zei Molina. "Maar uiteindelijk gaat het erom hoe we gebruikers kunnen helpen hun vertrouwen in AI te kalibreren vanwege de feitelijke kenmerken van de technologie, in plaats van te worden beïnvloed door die individuele verschillen."

Molina en Sundar zeggen dat hun resultaten kunnen helpen bij het vormen van toekomstige acceptatie van AI. Door systemen te maken die zijn aangepast aan de gebruiker, konden ontwerpers scepsis en wantrouwen wegnemen en een passend vertrouwen in AI opbouwen.

"Een belangrijke praktische implicatie van het onderzoek is het vinden van communicatie- en ontwerpstrategieën om gebruikers te helpen hun vertrouwen in geautomatiseerde systemen te kalibreren", zegt Sundar, die ook directeur is van Penn State's Center for Socially Responsible Artificial Intelligence. "Bepaalde groepen mensen die de neiging hebben om te veel vertrouwen te hebben in AI-technologie, moeten worden gewaarschuwd voor de beperkingen ervan en degenen die niet geloven in het vermogen om inhoud te modereren, moeten volledig worden geïnformeerd over de mate van menselijke betrokkenheid bij het proces." + Verder verkennen

Gebruikers vertrouwen net zoveel op AI als mensen voor het markeren van problematische inhoud