Wetenschap
Krediet:CC0 Publiek Domein
Het internet biedt de mogelijkheid voor constructieve dialoog en samenwerking, maar te vaak ontaarden online gesprekken in persoonlijke aanvallen. In de hoop dat die aanvallen kunnen worden afgewend, Cornell-onderzoekers hebben een model gemaakt om te voorspellen welke civiele gesprekken een giftige wending kunnen nemen.
Na honderden uitwisselingen op Wikipedia te hebben geanalyseerd, ontwikkelden de onderzoekers een computerprogramma dat scant op rode vlaggen – zoals herhaalde, directe ondervraging en gebruik van het woord "jij" in de eerste twee berichten - om te voorspellen welke aanvankelijk civiele gesprekken mis zouden gaan.
Vroege uitwisselingen met begroetingen, uitingen van dankbaarheid, heggen zoals "het lijkt, " en de woorden "ik" en "wij" bleven eerder beleefd, de studie gevonden.
"Er zijn miljoenen van deze discussies, en je kunt ze onmogelijk allemaal live volgen. Dit systeem kan menselijke moderatoren helpen hun aandacht beter te richten, " zei Cristian Danescu-Niculescu-Mizil, assistent-professor informatiewetenschappen en co-auteur van het artikel "Conversations Gone Awry:Detecting Early Signs of Conversational Failure."
"Wij als mensen hebben een intuïtie om te detecteren of iets niet goed gaat, maar het is maar een vermoeden. We kunnen het niet 100 procent van de tijd. Daarom, we vragen ons af of we systemen kunnen bouwen om deze intuïtie te repliceren, omdat mensen duur en druk zijn, en we denken dat dit het soort probleem is waarbij computers het potentieel hebben om beter te presteren dan mensen, ' zei Danescu-Niculescu-Mizil.
Het computermodel, die ook rekening hield met het perspectief van Google, een machine-learning tool voor het evalueren van "toxiciteit, " was ongeveer 65 procent van de tijd correct. Mensen raadden 72 procent van de tijd correct.
Mensen kunnen hun eigen vermogen testen om te raden welke gesprekken zullen ontsporen tijdens een online quiz.
De studie analyseerde 1, 270 gesprekken die beschaafd begonnen maar ontaardden in persoonlijke aanvallen, geplukt uit 50 miljoen gesprekken op 16 miljoen "overleg"-pagina's van Wikipedia, waar redacteuren artikelen of andere zaken bespreken. Ze onderzochten uitwisselingen in paren, het vergelijken van elk gesprek dat slecht eindigde met een dat over hetzelfde onderwerp slaagde, dus de resultaten werden niet vertekend door gevoelige onderwerpen zoals politiek.
De krant, mede geschreven met Cornell Ph.D. student informatiewetenschappen Justine Zhang; doctoraat informaticastudenten Jonathan P. Chang, en Yiqing Hua; Lucas Dixon en Nithum Thain van Jigsaw; en Dario Taraborelli van de Wikimedia Foundation, zal worden gepresenteerd op de jaarlijkse bijeenkomst van de Vereniging voor Computerlinguïstiek, van 15 tot 20 juli in Melbourne, Australië.
De onderzoekers hopen dat dit model kan worden gebruikt om risicovolle gesprekken te redden en de online dialoog te verbeteren. in plaats van voor het verbieden van specifieke gebruikers of het censureren van bepaalde onderwerpen. Enkele onlineposters, zoals anderstaligen Engels, realiseren zich misschien niet dat ze als agressief kunnen worden ervaren, en waarschuwingen van een dergelijk systeem kunnen hen helpen zich aan te passen.
"Als ik tools heb die persoonlijke aanvallen vinden, het is al te laat, omdat de aanval al heeft plaatsgevonden en mensen het al hebben gezien, ' zei Chang. 'Maar als je begrijpt dat dit gesprek de verkeerde kant opgaat en actie onderneemt, dat maakt de plek misschien wat gastvrijer."
Wetenschap © https://nl.scienceaq.com