Wetenschap
Tegoed:CC0 Publiek Domein
Nieuw onderzoek, gepubliceerd in PeerJ Computer Science , dat meer dan 87 miljoen berichten en 2,205 miljard reacties op Reddit van meer dan 1,2 miljoen unieke gebruikers analyseert, onderzoekt veranderingen in het online gedrag van gebruikers die in meerdere gemeenschappen op Reddit publiceren door 'toxiciteit' te meten.
Toxiciteitsanalyse van gebruikersgedrag toonde aan dat 16,11% van de gebruikers giftige berichten publiceert en 13,28% van de gebruikers giftige opmerkingen. 30,68% van de gebruikers die berichten publiceren en 81,67% van de gebruikers die opmerkingen publiceren, vertonen veranderingen in hun toxiciteit in verschillende gemeenschappen (of subreddits), wat aangeeft dat gebruikers hun gedrag aanpassen aan de normen van de gemeenschappen.
De studie suggereert dat een manier om de verspreiding van toxiciteit te beperken, is door de gemeenschappen te beperken waaraan gebruikers kunnen deelnemen. De onderzoekers vonden een positieve correlatie tussen de toename van het aantal gemeenschappen en de toename van de toxiciteit, maar kunnen niet garanderen dat dit de enige reden is voor de toename van het toxische gehalte.
Op social media platforms kunnen verschillende soorten content worden gedeeld en gepubliceerd, waardoor gebruikers op verschillende manieren met elkaar kunnen communiceren. De groei van sociale-mediaplatforms heeft helaas geleid tot een explosie van kwaadaardige inhoud zoals intimidatie, godslastering en cyberpesten. Verschillende redenen kunnen gebruikers van sociale-mediaplatforms motiveren om schadelijke inhoud te verspreiden. Het is aangetoond dat het publiceren van giftige inhoud (d.w.z. kwaadaardig gedrag) zich verspreidt. Het kwaadwillende gedrag van niet-kwaadwillende gebruikers kan niet-kwaadwillende gebruikers beïnvloeden en ervoor zorgen dat ze zich misdragen, wat een negatieve invloed heeft op online gemeenschappen.
"Een uitdaging bij het bestuderen van online toxiciteit is de veelheid aan vormen die het aanneemt, waaronder haatzaaiende uitlatingen, intimidatie en cyberpesten. Giftige inhoud bevat vaak beledigingen, bedreigingen en beledigende taal, die op hun beurt online platforms besmetten. Verschillende online platforms hebben geïmplementeerd preventiemechanismen, maar deze inspanningen zijn niet schaalbaar genoeg om de snelle groei van giftige inhoud op online platforms in te dammen. Deze uitdagingen vragen om het ontwikkelen van effectieve automatische of halfautomatische oplossingen om toxiciteit van een grote stroom inhoud op online platforms te detecteren", zeggen de auteurs. doctoraat (ABD) Hind Almerekhi, Dr. Haewoon Kwak en Professor Bernard J. Jansen.
"Het volgen van de verandering in de toxiciteit van gebruikers kan een vroege detectiemethode zijn voor toxiciteit in online gemeenschappen. De voorgestelde methode kan identificeren wanneer gebruikers een verandering vertonen door het toxiciteitspercentage in berichten en opmerkingen te berekenen. Deze verandering, gecombineerd met het toxiciteitsniveau van ons systeem detecteert in berichten van gebruikers, kan efficiënt worden gebruikt om de verspreiding van toxiciteit te stoppen."
Het onderzoeksteam bouwde met behulp van crowdsourcing een gelabelde dataset van 10.083 Reddit-opmerkingen en gebruikte de dataset vervolgens om een Bidirectioneel Encoder Representations from Transformers (BERT) neuraal netwerkmodel te trainen en te verfijnen. Het model voorspelde de toxiciteitsniveaus van 87.376.912 berichten van 577.835 gebruikers en 2.205.581.786 reacties van 890.913 gebruikers op Reddit gedurende 16 jaar, van 2005 tot 2020.
Deze studie maakte gebruik van de toxiciteitsniveaus van gebruikersinhoud om toxiciteitsveranderingen door de gebruiker binnen dezelfde gemeenschap, in meerdere gemeenschappen en in de loop van de tijd te identificeren. Voor de toxiciteitsdetectieprestaties behaalde het verfijnde BERT-model een classificatienauwkeurigheid van 91,27% en een AUC-score (Area Under the Receiver Operating Characteristic Curve) van 0,963 en presteerde het beter dan verschillende basismodellen voor machine learning en neurale netwerkmodellen. + Verder verkennen
Wetenschap © https://nl.scienceaq.com