science >> Wetenschap >  >> anders

YouTube:hoe een team van wetenschappers werkte om een ​​miljoen gebruikers te inenten tegen verkeerde informatie

Screenshots van een van de video's.

Van de COVID-19-pandemie tot de oorlog in Oekraïne, desinformatie is wereldwijd wijdverbreid. Veel tools zijn ontworpen om mensen te helpen verkeerde informatie op te sporen. Het probleem met de meeste van hen is hoe moeilijk ze zijn om op grote schaal te leveren.

Maar misschien hebben we een oplossing gevonden. In ons nieuwe onderzoek hebben we vijf korte video's ontworpen en getest die kijkers 'prebunken', om ze te beschermen tegen de bedrieglijke en manipulatieve technieken die vaak online worden gebruikt om mensen te misleiden. Onze studie is de grootste in zijn soort en de eerste om dit soort interventies op YouTube te testen. Vijf miljoen mensen kregen de video's te zien, waarvan een miljoen ze bekeken.

We ontdekten dat deze video's mensen niet alleen helpen bij het opsporen van verkeerde informatie in gecontroleerde experimenten, maar ook in de echte wereld. Door een van onze video's te bekijken via een YouTube-advertentie, konden YouTube-gebruikers verkeerde informatie beter herkennen.

In tegenstelling tot prebunking, heeft het ontmaskeren (of factchecken) van desinformatie verschillende problemen. Het is vaak moeilijk om vast te stellen wat de waarheid is. Factchecks bereiken ook vaak niet de mensen die de verkeerde informatie het meest waarschijnlijk geloven, en het kan een uitdaging zijn om mensen factchecks te laten accepteren, vooral als mensen een sterke politieke identiteit hebben.

Studies tonen aan dat het online publiceren van feitencontroles de effecten van verkeerde informatie, een fenomeen dat bekend staat als het voortdurende beïnvloedingseffect, niet volledig ongedaan maakt. Tot nu toe hebben onderzoekers geworsteld om een ​​oplossing te vinden die snel miljoenen mensen kan bereiken.

Het grote idee

Inentingstheorie is het idee dat je psychologische weerstand kunt creëren tegen pogingen om je te manipuleren, net zoals een medisch vaccin een verzwakte versie is van een ziekteverwekker die je immuunsysteem ertoe aanzet antilichamen aan te maken. Prebunking-interventies zijn grotendeels gebaseerd op deze theorie.

De meeste modellen zijn gericht op het tegengaan van individuele voorbeelden van verkeerde informatie, zoals berichten over klimaatverandering. In de afgelopen jaren hebben onderzoekers, waaronder wijzelf, echter manieren onderzocht om mensen te inenten tegen de technieken en stijlfiguren die ten grondslag liggen aan veel van de verkeerde informatie die we online zien. Dergelijke technieken omvatten het gebruik van emotionele taal om verontwaardiging en angst op te wekken, of het tot zondebok maken van mensen en groepen voor een kwestie waar ze weinig tot geen controle over hebben.

Online games zoals Cranky Uncle en Bad News behoorden tot de eerste pogingen om deze prebunking-methode uit te proberen. Er zijn verschillende voordelen aan deze aanpak. U hoeft niet op te treden als de arbiter van de waarheid, aangezien u specifieke beweringen die u online ziet, niet hoeft te controleren. Hiermee kunt u emotionele discussies over de geloofwaardigheid van nieuwsbronnen omzeilen. En misschien wel het allerbelangrijkste:u hoeft niet te weten welk stukje desinformatie de volgende keer viraal gaat.

Een schaalbare aanpak

Maar niet iedereen heeft de tijd of motivatie om een ​​game te spelen. Daarom hebben we met Jigsaw (de onderzoekseenheid van Google) samengewerkt aan een oplossing om meer van deze mensen te bereiken. Ons team ontwikkelde vijf prebunking-video's, elk van minder dan twee minuten, die bedoeld waren om kijkers te immuniseren tegen een andere manipulatietechniek of logische misvatting. Als onderdeel van het project hebben we een website gelanceerd waar mensen deze video's kunnen bekijken en downloaden.

We hebben hun impact eerst getest in het lab. We hebben zes experimenten uitgevoerd (met in totaal ongeveer 6.400 deelnemers) waarin mensen een van onze video's of een niet-gerelateerde controlevideo over vriesbrand bekeken. Daarna, binnen 24 uur na het bekijken van de video, werd hen gevraagd om een ​​reeks (niet-gepubliceerde) voorbeelden van sociale media-inhoud te evalueren die al dan niet gebruik maakten van verkeerde informatietechnieken. We ontdekten dat mensen die onze prebunking-video's zagen significant minder vatbaar waren voor manipulatie dan de controledeelnemers.

Maar bevindingen uit laboratoriumstudies vertalen zich niet noodzakelijk naar de echte wereld. Daarom hebben we ook een veldonderzoek uitgevoerd op YouTube, de op één na meest bezochte website ter wereld (eigendom van Google), om de effectiviteit van de video-interventies daar te testen.

Een voorbeeld van een social media post (die we gebruikten als een van de stimuli in ons onderzoek) die gebruik maakt van een valse dichotomie (of vals dilemma), een veelgebruikte manipulatietechniek.

Voor dit onderzoek hebben we ons gericht op Amerikaanse YouTube-gebruikers ouder dan 18 jaar die eerder politieke inhoud op het platform hadden bekeken. We voerden een advertentiecampagne uit met twee van onze video's en toonden ze aan ongeveer 1 miljoen YouTube-gebruikers. Vervolgens hebben we de BrandLift-betrokkenheidstool van YouTube gebruikt om mensen die een prebunking-video hebben gezien, te vragen één meerkeuzevraag te beantwoorden. De vraag beoordeelde hun vermogen om een ​​manipulatietechniek in een nieuwskop te identificeren. We hadden ook een controlegroep, die dezelfde onderzoeksvraag beantwoordde, maar de prebunking-video niet zag. We ontdekten dat de prebunkinggroep 5-10% beter was dan de controlegroep in het correct identificeren van verkeerde informatie, wat aantoont dat deze aanpak de veerkracht verbetert, zelfs in een afleidende omgeving zoals YouTube.

Onze video's zouden minder dan 4 cent per videoweergave kosten (dit zou de advertentiekosten van YouTube dekken). Als resultaat van dit onderzoek gaat Google in september 2022 een advertentiecampagne voeren met vergelijkbare video's. Deze campagne zal worden uitgevoerd in Polen en Tsjechië om desinformatie over vluchtelingen in de context van de oorlog tussen Rusland en Oekraïne tegen te gaan.

Als je veerkracht probeert op te bouwen, is het handig om niet te direct te zijn in het vertellen van mensen wat ze moeten geloven, omdat dat iets kan uitlokken dat psychologische reactantie wordt genoemd. Reactantie betekent dat mensen het gevoel hebben dat hun vrijheid om beslissingen te nemen wordt bedreigd, waardoor ze zich in de schoenen graven en nieuwe informatie afwijzen. Inentingstheorie gaat over het machtigen van mensen om hun eigen beslissingen te nemen over wat ze moeten geloven.

Soms kan de verspreiding van samenzweringstheorieën en valse informatie online overweldigend zijn. Maar ons onderzoek heeft aangetoond dat het mogelijk is om het tij te keren. Hoe meer sociale-mediaplatforms samenwerken met onafhankelijke wetenschappers om schaalbare, op feiten gebaseerde oplossingen te ontwerpen, testen en implementeren, hoe groter onze kansen om de samenleving immuun te maken voor de aanval van verkeerde informatie. + Verder verkennen

Experiment op YouTube onthult potentieel om miljoenen gebruikers te 'inoculeren' tegen verkeerde informatie

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.