science >> Wetenschap >  >> Elektronica

Verkeerde informatie en vooroordelen besmetten sociale media, zowel opzettelijk als per ongeluk

Mensen die potentiële verkeerde informatie delen op Twitter (in het paars) krijgen zelden correcties of feitencontroles (in het oranje) te zien. Krediet:Shao et al., CC BY-ND

Sociale media behoren tot de belangrijkste nieuwsbronnen in de VS en over de hele wereld. Toch worden gebruikers blootgesteld aan inhoud van twijfelachtige nauwkeurigheid, inclusief complottheorieën, klikbait, hyperpartijdige inhoud, pseudowetenschap en zelfs verzonnen "nepnieuws" -rapporten.

Het is niet verwonderlijk dat er zoveel desinformatie wordt gepubliceerd:Spam en online fraude zijn lucratief voor criminelen, en regerings- en politieke propaganda leveren zowel partijdige als financiële voordelen op. Maar het feit dat inhoud met een lage geloofwaardigheid zich zo snel en gemakkelijk verspreidt, suggereert dat mensen en de algoritmen achter sociale-mediaplatforms kwetsbaar zijn voor manipulatie.

Ons onderzoek heeft drie soorten vooroordelen geïdentificeerd die het ecosysteem van sociale media kwetsbaar maken voor zowel opzettelijke als onopzettelijke verkeerde informatie. Daarom bouwt ons Observatorium voor Sociale Media aan de Indiana University hulpmiddelen om mensen te helpen zich bewust te worden van deze vooroordelen en zichzelf te beschermen tegen invloeden van buitenaf die zijn ontworpen om ze uit te buiten.

Bias in de hersenen

Cognitieve vooroordelen vinden hun oorsprong in de manier waarop de hersenen de informatie verwerken die elke persoon elke dag tegenkomt. De hersenen kunnen slechts een eindige hoeveelheid informatie verwerken, en te veel binnenkomende prikkels kunnen informatie-overload veroorzaken. Dat op zich heeft ernstige gevolgen voor de kwaliteit van de informatie op sociale media. We hebben ontdekt dat sterke concurrentie om de beperkte aandacht van gebruikers betekent dat sommige ideeën viraal gaan ondanks hun lage kwaliteit, zelfs als mensen liever inhoud van hoge kwaliteit delen.

Om te voorkomen dat je overweldigd raakt, de hersenen gebruiken een aantal trucs. Deze methoden zijn meestal effectief, maar kan ook vooroordelen worden wanneer toegepast in de verkeerde contexten.

Uitleg over de tools die ontwikkeld zijn bij het Observatorium op Social Media.

Een cognitieve snelkoppeling vindt plaats wanneer een persoon beslist of hij een verhaal wil delen dat op zijn of haar sociale media-feed verschijnt. Mensen worden erg geraakt door de emotionele connotaties van een kop, ook al is dat geen goede indicatie van de nauwkeurigheid van een artikel. Veel belangrijker is wie het stuk heeft geschreven.

Om deze vooringenomenheid tegen te gaan, en mensen te helpen meer aandacht te besteden aan de bron van een claim voordat ze deze delen, we hebben Fakey ontwikkeld, een mobiel nieuwsgeletterdheidsspel (gratis op Android en iOS) dat een typische nieuwsfeed van sociale media simuleert, met een mix van nieuwsartikelen uit reguliere en weinig geloofwaardige bronnen. Spelers krijgen meer punten voor het delen van nieuws uit betrouwbare bronnen en het markeren van verdachte inhoud voor feitencontrole. In het proces, ze leren signalen van geloofwaardigheid van de bron te herkennen, zoals partijdige beweringen en emotioneel geladen koppen.

Bias in de samenleving

Een andere bron van vooringenomenheid komt uit de samenleving. Wanneer mensen rechtstreeks contact maken met hun leeftijdsgenoten, de sociale vooroordelen die hun selectie van vrienden leiden, gaan de informatie die ze zien beïnvloeden.

In feite, in ons onderzoek hebben we ontdekt dat het mogelijk is om de politieke voorkeuren van een Twitter-gebruiker te bepalen door simpelweg te kijken naar de partijdige voorkeuren van hun vrienden. Uit onze analyse van de structuur van deze partijdige communicatienetwerken bleek dat sociale netwerken bijzonder efficiënt zijn in het verspreiden van informatie – nauwkeurig of niet – wanneer ze nauw met elkaar verbonden zijn en losgekoppeld zijn van andere delen van de samenleving.

De neiging om informatie gunstiger te beoordelen als deze uit hun eigen sociale kringen komt, creëert 'echokamers' die rijp zijn voor manipulatie, al dan niet bewust. Dit helpt verklaren waarom zoveel online gesprekken ontaarden in 'wij tegen zij'-confrontaties.

Screenshots van het Fakey-spel. Krediet:Mihai Avram en Filippo Menczer

Om te onderzoeken hoe de structuur van online sociale netwerken gebruikers kwetsbaar maakt voor desinformatie, we hebben Hoaxy gebouwd, een systeem dat de verspreiding van inhoud van bronnen met een lage geloofwaardigheid bijhoudt en visualiseert, en hoe het concurreert met feitencontrole-inhoud. Onze analyse van de gegevens die door Hoaxy tijdens de Amerikaanse presidentsverkiezingen van 2016 zijn verzameld, toont aan dat Twitter-accounts die verkeerde informatie deelden, bijna volledig werden afgesneden van de correcties die door de factcheckers werden aangebracht.

Toen we dieper ingingen op de accounts die desinformatie verspreiden, we vonden een zeer dichte kerngroep van accounts die elkaar bijna uitsluitend retweeten - inclusief verschillende bots. De enige keren dat fact-checking-organisaties ooit werden geciteerd of genoemd door de gebruikers in de slecht geïnformeerde groep, waren wanneer ze hun legitimiteit in twijfel trokken of het tegenovergestelde beweerden van wat ze schreven.

Bias in de machine

De derde groep vooroordelen komt rechtstreeks voort uit de algoritmen die worden gebruikt om te bepalen wat mensen online zien. Zowel sociale mediaplatforms als zoekmachines gebruiken ze. Deze personalisatietechnologieën zijn ontworpen om alleen de meest boeiende en relevante inhoud voor elke individuele gebruiker te selecteren. Maar daarbij, het kan uiteindelijk de cognitieve en sociale vooroordelen van gebruikers versterken, waardoor ze nog kwetsbaarder worden voor manipulatie.

Bijvoorbeeld, Dankzij de gedetailleerde advertentietools die in veel sociale-mediaplatforms zijn ingebouwd, kunnen campagnevoerders van desinformatie misbruik maken van de voorkeur voor bevestiging door berichten af ​​te stemmen op mensen die al geneigd zijn ze te geloven.

Ook, als een gebruiker vaak op Facebook-links van een bepaalde nieuwsbron klikt, Facebook zal de neiging hebben om die persoon meer van de inhoud van die site te laten zien. Dit zogenaamde "filterbubbel" -effect kan mensen vanuit verschillende perspectieven isoleren, bevestiging vooringenomenheid versterken.

Een screenshot van een Hoaxy-zoekopdracht laat zien hoe gewone bots – in rood en donkerroze – een vals verhaal verspreiden op Twitter. Krediet:Hoaxy

Ons eigen onderzoek toont aan dat sociale-mediaplatforms gebruikers blootstellen aan een minder diverse reeks bronnen dan niet-sociale-mediasites zoals Wikipedia. Omdat dit op het niveau van een heel platform is, niet van een enkele gebruiker, we noemen dit de homogeniteitsbias.

Een ander belangrijk ingrediënt van sociale media is informatie die trending is op het platform, op basis van wat de meeste klikken krijgt. We noemen dit populariteitsbias, omdat we hebben ontdekt dat een algoritme dat is ontworpen om populaire inhoud te promoten, de algehele kwaliteit van informatie op het platform negatief kan beïnvloeden. Dit voedt ook bestaande cognitieve vooroordelen, versterken van wat populair lijkt, ongeacht de kwaliteit ervan.

Al deze algoritmische vooroordelen kunnen worden gemanipuleerd door sociale bots, computerprogramma's die communiceren met mensen via sociale media-accounts. De meeste sociale bots, zoals de Big Ben van Twitter, zijn ongevaarlijk. Echter, sommige verbergen hun ware aard en worden gebruikt voor kwade bedoelingen, zoals het stimuleren van desinformatie of het ten onrechte creëren van de schijn van een basisbeweging, ook wel "astroturfing" genoemd. We vonden bewijs van dit soort manipulatie in de aanloop naar de Amerikaanse tussentijdse verkiezingen van 2010.

Om deze manipulatiestrategieën te bestuderen, we hebben een tool ontwikkeld om sociale bots te detecteren, Botometer genaamd. Botometer gebruikt machine learning om botaccounts te detecteren, door duizenden verschillende functies van Twitter-accounts te inspecteren, zoals de tijden van zijn berichten, hoe vaak het twittert, en de accounts die het volgt en retweets. Het is niet volmaakt, maar het heeft onthuld dat maar liefst 15 procent van de Twitter-accounts tekenen vertoont dat ze bots zijn.

Botometer gebruiken in combinatie met Hoaxy, we hebben de kern van het desinformatienetwerk geanalyseerd tijdens de Amerikaanse presidentiële campagne van 2016. We vonden veel bots die zowel de cognitieve, bevestiging en populariteitsvooroordelen van hun slachtoffers en de algoritmische vooroordelen van Twitter.

Deze bots zijn in staat om filterbubbels te bouwen rond kwetsbare gebruikers, door hen valse beweringen en verkeerde informatie te geven. Eerst, ze kunnen de aandacht trekken van menselijke gebruikers die een bepaalde kandidaat steunen door de hashtags van die kandidaat te tweeten of door de persoon te noemen en te retweeten. Vervolgens kunnen de bots valse claims versterken die tegenstanders besmeuren door artikelen te retweeten uit bronnen met een lage geloofwaardigheid die overeenkomen met bepaalde zoekwoorden. Deze activiteit zorgt er ook voor dat het algoritme voor andere gebruikers valse verhalen benadrukt die op grote schaal worden gedeeld.

Een screenshot van de Botometer-website, met één menselijke en één bot-account. Krediet:Botometer

Inzicht in complexe kwetsbaarheden

Zelfs als ons onderzoek, en anderen', laat zien hoe individuen, instellingen en zelfs hele samenlevingen kunnen worden gemanipuleerd op sociale media, er zijn nog veel vragen te beantwoorden. Het is vooral belangrijk om te ontdekken hoe deze verschillende vooroordelen op elkaar inwerken, mogelijk meer complexe kwetsbaarheden creëren.

Tools zoals de onze bieden internetgebruikers meer informatie over desinformatie, en daardoor een zekere mate van bescherming tegen zijn schade. De oplossingen zullen waarschijnlijk niet alleen technologisch, hoewel er waarschijnlijk enkele technische aspecten aan hen zullen zijn. Maar ze moeten rekening houden met de cognitieve en sociale aspecten van het probleem.

Noot van de redactie:dit artikel is bijgewerkt op 10 januari, 2019, om een ​​link naar een ingetrokken onderzoek te verwijderen. De tekst van het artikel is nog steeds correct, en blijft ongewijzigd.

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.