science >> Wetenschap >  >> Elektronica

Gebruikers vertrouwen AI net zo veel als mensen voor het markeren van problematische inhoud

Tegoed:Unsplash/CC0 Publiek domein

Gebruikers van sociale media kunnen kunstmatige intelligentie (AI) net zo goed vertrouwen als menselijke redacteuren om haatzaaiende uitlatingen en schadelijke inhoud te markeren, aldus onderzoekers van Penn State.

De onderzoekers zeiden dat wanneer gebruikers nadenken over positieve eigenschappen van machines, zoals hun nauwkeurigheid en objectiviteit, ze meer vertrouwen in AI tonen. Als gebruikers echter worden herinnerd aan het onvermogen van machines om subjectieve beslissingen te nemen, is hun vertrouwen lager.

De bevindingen kunnen ontwikkelaars helpen bij het ontwerpen van betere door AI aangedreven contentbeheersystemen die de grote hoeveelheden informatie die momenteel worden gegenereerd aankunnen, terwijl de perceptie wordt vermeden dat het materiaal is gecensureerd of onjuist geclassificeerd, zei S. Shyam Sundar, James P. Jimirro Professor van Media Effects in het Donald P. Bellisario College of Communications en co-directeur van het Media Effects Research Laboratory.

"Er is dringend behoefte aan contentmoderatie op sociale media en meer in het algemeen, online media", zegt Sundar, die ook een filiaal is van Penn State's Institute for Computational and Data Sciences. "In traditionele media hebben we nieuwsredacteuren die als poortwachters fungeren. Maar online staan ​​de poorten zo wijd open en is poortwachten niet per se haalbaar voor mensen, vooral niet met de hoeveelheid informatie die wordt gegenereerd. op weg naar geautomatiseerde oplossingen, kijkt deze studie naar het verschil tussen menselijke en geautomatiseerde inhoudsmoderators, in termen van hoe mensen erop reageren."

Zowel menselijke als AI-editors hebben voor- en nadelen. Mensen hebben de neiging om nauwkeuriger te beoordelen of inhoud schadelijk is, zoals wanneer het racistisch is of mogelijk zelfbeschadiging kan veroorzaken, volgens Maria D. Molina, assistent-professor reclame en public relations, Michigan State, die eerste auteur is van het onderzoek . Mensen kunnen echter de grote hoeveelheden inhoud die nu online wordt gegenereerd en gedeeld, niet verwerken.

Aan de andere kant, hoewel AI-editors snel inhoud kunnen analyseren, wantrouwen mensen deze algoritmen vaak om nauwkeurige aanbevelingen te doen, en zijn ze bang dat de informatie kan worden gecensureerd.

"Als we nadenken over geautomatiseerde contentmoderatie, roept dat de vraag op of kunstmatige intelligentie-editors inbreuk maken op de vrijheid van meningsuiting van een persoon", zegt Molina. "Dit creëert een tweedeling tussen het feit dat we contentmoderatie nodig hebben - omdat mensen al deze problematische content delen - en tegelijkertijd maken mensen zich zorgen over het vermogen van AI om content te modereren. Dus uiteindelijk willen we weten hoe we kunnen AI-inhoudsmoderators bouwen die mensen kunnen vertrouwen op een manier die die vrijheid van meningsuiting niet aantast."

Transparantie en interactieve transparantie

Volgens Molina kan het samenbrengen van mensen en AI in het moderatieproces een manier zijn om een ​​vertrouwd moderatiesysteem te bouwen. Ze voegde eraan toe dat transparantie - of het signaleren aan gebruikers dat een machine betrokken is bij moderatie - een benadering is om het vertrouwen in AI te verbeteren. Gebruikers toestaan ​​om suggesties te doen aan de AI's, wat de onderzoekers 'interactieve transparantie' noemen, lijkt het vertrouwen van de gebruikers echter nog meer te vergroten.

Om onder andere transparantie en interactieve transparantie te bestuderen, rekruteerden de onderzoekers 676 deelnemers om te communiceren met een inhoudsclassificatiesysteem. Deelnemers werden willekeurig toegewezen aan een van de 18 experimentele condities, ontworpen om te testen hoe de bron van moderatie - AI, menselijk of beide - en transparantie - regelmatig, interactief of geen transparantie - het vertrouwen van de deelnemer in AI-contenteditors zou kunnen beïnvloeden. De onderzoekers testten classificatiebeslissingen - of de inhoud werd geclassificeerd als "gemarkeerd" of "niet gemarkeerd" omdat deze schadelijk of hatelijk was. De 'schadelijke' testinhoud ging over zelfmoordgedachten, terwijl de 'haatdragende' testinhoud haatspraak bevatte.

De onderzoekers ontdekten onder andere dat het vertrouwen van gebruikers afhangt van het feit of de aanwezigheid van een AI-contentmoderator positieve eigenschappen van machines oproept, zoals hun nauwkeurigheid en objectiviteit, of negatieve eigenschappen, zoals hun onvermogen om subjectieve oordelen te vellen over nuances in menselijke taal.

Door gebruikers de kans te geven om het AI-systeem te helpen beslissen of online informatie schadelijk is of niet, kan hun vertrouwen ook toenemen. De onderzoekers zeiden dat studiedeelnemers die hun eigen termen toevoegden aan de resultaten van een AI-geselecteerde lijst met woorden die werden gebruikt om berichten te classificeren, de AI-editor net zoveel vertrouwden als een menselijke editor.

Ethische zorgen

Sundar zei dat het ontlasten van mensen van het beoordelen van inhoud verder gaat dan alleen werknemers een uitstel geven van een vervelend karwei. Het inhuren van menselijke redacteuren voor het karwei betekent dat deze arbeiders worden blootgesteld aan urenlange haatdragende en gewelddadige beelden en inhoud, zei hij.

"Er is een ethische behoefte aan geautomatiseerde contentmoderatie", zegt Sundar, die ook directeur is van Penn State's Center for Socially Responsible Artificial Intelligence. "Het is nodig om moderators van menselijke inhoud - die een sociaal voordeel behalen wanneer ze dit doen - te beschermen tegen constante blootstelling aan schadelijke inhoud, dag in dag uit."

Volgens Molina zou toekomstig werk kunnen kijken naar hoe mensen niet alleen kunnen worden geholpen om AI te vertrouwen, maar ook om het te begrijpen. Interactieve transparantie kan ook een belangrijk onderdeel zijn van het begrijpen van AI, voegde ze eraan toe.

"Iets dat echt belangrijk is, is niet alleen vertrouwen in systemen, maar ook mensen betrekken op een manier die ze daadwerkelijk begrijpen", zegt Molina. "Hoe kunnen we dit concept van interactieve transparantie en andere methoden gebruiken om mensen te helpen AI beter te begrijpen? Hoe kunnen we AI het beste presenteren zodat het de juiste balans oproept tussen waardering voor machinecapaciteiten en scepsis over de zwakke punten ervan? Deze vragen zijn het onderzoeken waard ."

De onderzoekers presenteren hun bevindingen in het huidige nummer van het Journal of Computer-Mediated Communication . + Verder verkennen

Het modereren van online content vergroot de verantwoordelijkheid, maar kan sommige platformgebruikers schaden