Wetenschap
Krediet:CC0 Publiek Domein
Tweets waarvan wordt aangenomen dat ze door Afro-Amerikanen zijn geschreven, worden veel vaker getagd als haatdragende taal dan tweets die verband houden met blanken, volgens een Cornell-studie die vijf verzamelingen Twitter-gegevens analyseert die zijn gemarkeerd voor grof taalgebruik.
Alle vijf datasets, samengesteld door academici voor onderzoek, toonde vooringenomenheid tegen Twitter-gebruikers waarvan wordt aangenomen dat ze Afro-Amerikaans zijn. Hoewel socialemediabedrijven, waaronder Twitter, deze datasets waarschijnlijk niet gebruiken voor hun eigen haatspraakdetectiesystemen, de consistentie van de resultaten suggereert dat soortgelijke vooroordelen wijdverbreid kunnen zijn.
"We vonden consistente, systematische en substantiële raciale vooroordelen, " zei Thomas Davidson, een promovendus in de sociologie en eerste auteur van "Racial Bias in Hate Speech and Abusive Language Datasets, " die werd gepresenteerd op de jaarvergadering van de Vereniging voor Computerlinguïstiek, 28 juli - aug. 2 in Firenze, Italië.
"Deze systemen worden ontwikkeld om taal te identificeren die wordt gebruikt om online gemarginaliseerde bevolkingsgroepen te targeten, "Zei Davidson. "Het is buitengewoon zorgwekkend als dezelfde systemen zelf de bevolking discrimineren die ze moeten beschermen."
Nu internetreuzen steeds vaker gebruik maken van kunstmatige intelligentie om haatdragende inhoud te markeren tussen miljoenen berichten, bezorgdheid over vooringenomenheid in modellen voor machine learning neemt toe. Omdat bias vaak begint in de gegevens die worden gebruikt om deze modellen te trainen, de onderzoekers probeerden datasets te evalueren die waren gemaakt om haatspraak te helpen begrijpen en classificeren.
Om hun analyse uit te voeren, ze selecteerden vijf datasets - waarvan Davidson één hielp ontwikkelen bij Cornell - bestaande uit een gecombineerde 270, 000 Twitter-berichten. Alle vijf waren geannoteerd door mensen om grof taalgebruik of haatzaaiende uitlatingen te markeren.
Voor elke dataset de onderzoekers trainden een machine learning-model om hatelijke of aanstootgevende spraak te voorspellen.
Vervolgens gebruikten ze een zesde database van meer dan 59 miljoen tweets, gekoppeld aan volkstellingsgegevens en geïdentificeerd door locatie en woorden die verband houden met bepaalde demografische gegevens, om de waarschijnlijkheid te voorspellen dat een tweet is geschreven door iemand van een bepaald ras.
Hoewel hun analyse de race van de auteur van een tweet niet definitief kon voorspellen, het classificeerde tweets in "zwart uitgelijnd" en "wit uitgelijnd, " als gevolg van het feit dat ze taal bevatten die verband houdt met een van die demografische gegevens.
In alle vijf gevallen de algoritmen classificeerden waarschijnlijke Afro-Amerikaanse tweets als seksisme, Haattoespraak, intimidatie of misbruik in veel hogere mate dan die tweets waarvan wordt aangenomen dat ze door blanken zijn geschreven - in sommige gevallen meer dan twee keer zo vaak.
De onderzoekers denken dat het verschil twee oorzaken heeft:een oversampling van de tweets van Afro-Amerikanen bij het maken van databases; en onvoldoende training voor de mensen die tweets annoteren voor mogelijk hatelijke inhoud.
"Als we als onderzoekers, of de mensen die we online betalen om gecrowdsourcete annotaties te doen, kijk naar deze tweets en moet beslissen, "Is dit hatelijk of niet hatelijk?" we kunnen taal zien geschreven in wat taalkundigen beschouwen als Afrikaans-Amerikaans Engels en meer kans hebben om te denken dat het iets is dat aanstootgevend is vanwege onze eigen interne vooroordelen, " Davidson zei. "We willen dat mensen die aantekeningen maken op gegevens zich bewust zijn van de nuances van online spraak en heel voorzichtig zijn met wat ze beschouwen als haatdragende taal."
Wetenschap © https://nl.scienceaq.com