Wetenschap
Krediet:CC0 Publiek Domein
Een team van onderzoekers van de Cornel University dat samenwerkt met de Wikimedia Foundation, heeft een digitaal raamwerk bedacht om te detecteren wanneer een online discussie waarschijnlijk lelijk wordt. In een paper geüpload naar de arXiv preprint-server, het team beschrijft hun aanpak en hoe goed hun algoritme werkte tijdens het testen.
Zoals de onderzoekers opmerken, online gesprekken kunnen vaak ontaarden in meningsverschillen en vaak persoonlijke aanvallen. Ze merken verder op dat dit vaak het geval is wanneer mensen een omgeving betreden waar kritiek, zoals Wikipedia. Daar, amateurredacteuren worden aangemoedigd om kritiek te leveren op het werk van anderen om de inhoud van de website te verbeteren. Helaas, veel mensen reageren niet goed op dergelijke kritiek, en als een resultaat, toevlucht nemen tot het plaatsen van vervelende opmerkingen. Het team van de Wikimedia Foundation zou dergelijke gesprekken willen beteugelen, want naast het koesteren van slechte gevoelens, het geeft de site ook een slechte reputatie. Om het probleem aan te pakken, het team werkte met de groep bij Cornell, die hetzelfde probleem hebben onderzocht; namelijk, het bouwen van een computersysteem dat in staat is te herkennen wanneer een menselijk gesprek dreigt te ontaarden in smerigheid, en om het ofwel te beteugelen, of beëindig het gesprek voor de betrokkenen.
Om dit probleem op te lossen, de onderzoekers keken naar meer dan 1, 200 online gesprekken op de Wikipedia-overlegpagina's op zoek naar taalkundige aanwijzingen. In deze context, cues waren woorden die houding en beleefdheid suggereerden. Door dit te doen, ze ontdekten dat wanneer mensen signalen als "alsjeblieft" en "bedankt" gebruikten, " er was minder kans dat dingen lelijk werden. Er waren ook positieve zinnen, zoals "ik denk" of "ik geloof" dat een poging deed om de zaken beschaafd te houden, die de neiging hadden om de zaken in evenwicht te houden. Anderzijds, ze vonden ook minder nuttige aanwijzingen, zoals wanneer gesprekken begonnen met directe vragen of het woord 'jij'. Dergelijke signalen leidden op een gegeven moment tot degradatie van beleefdheid en, suggereren de onderzoekers, worden door een lezer vaak gezien als vijandig en controversieel.
Het team ontwikkelde vervolgens een algoritme dat signalen als aangeleerde gegevens accepteerde en vervolgens zinnen ontleedde op zoek naar dergelijke signalen en er menselijke intuïtie op toepaste. Het resultaat, het team meldt, was een geautomatiseerd raamwerk dat vroeg kon herkennen wanneer een gesprek waarschijnlijk zou ontaarden in een lelijk spel van heen en weer. Ze vonden het systeem 61,6 procent nauwkeurig. Mensen die dezelfde test doen, echter, scoorde 72 procent.
© 2018 Fys.org
Wetenschap © https://nl.scienceaq.com