Wetenschap
Kan de snelle verspreiding van valse informatie worden tegengegaan? Krediet:Sarah Rieke
Als het om echt nepnieuws gaat, het soort desinformatie dat Rusland heeft ingezet tijdens de verkiezingen van 2016, "viraal gaan" is niet alleen een metafoor.
Met behulp van de tools voor het modelleren van de verspreiding van infectieziekten, cyberrisicoonderzoekers van Stanford Engineering analyseren de verspreiding van nepnieuws alsof het een ebola-stam is. "We willen de meest effectieve manier vinden om de transmissieketens door te snijden, corrigeer de informatie indien mogelijk en leid de meest kwetsbare doelen op, " zegt Elisabeth Paté-Cornell, een professor in managementwetenschap en -techniek. Ze heeft zich lang gespecialiseerd in risicoanalyse en cyberbeveiliging en leidt het onderzoek in samenwerking met Travis I. Trammell, een promovendus aan Stanford. Hier zijn enkele van de belangrijkste lessen:
Hoe repliceert nepnieuws op sociale media?
De onderzoekers hebben een model aangepast om ziekten te begrijpen die een persoon meer dan eens kunnen infecteren. Het kijkt naar hoeveel mensen "gevoelig" zijn voor de ziekte - of in dit geval, waarschijnlijk een stukje nepnieuws geloven. Er wordt ook gekeken naar hoeveel mensen eraan zijn blootgesteld, en hoeveel zijn er daadwerkelijk "geïnfecteerd" en geloven het verhaal; en hoeveel mensen waarschijnlijk nepnieuws verspreiden.
Net als een virus, de onderzoekers zeggen dat blootstelling aan meerdere soorten nepnieuws na verloop van tijd de weerstand van een persoon kan verminderen en ze steeds vatbaarder kan maken. Hoe vaker een persoon wordt blootgesteld aan nepnieuws, vooral als het uit een invloedrijke bron komt, hoe groter de kans dat ze overgehaald of besmet raken.
Wat zorgt ervoor dat het zich sneller verspreidt?
De zogenaamde "machtswet" van sociale media, een goed gedocumenteerd patroon in sociale netwerken, stelt dat berichten het snelst worden gerepliceerd als ze zijn gericht op relatief kleine aantallen invloedrijke mensen met een groot aantal volgers.
Onderzoekers kijken ook naar de relatieve effectiviteit van trollen versus bots. Trammell zegt bots, dat zijn geautomatiseerde programma's die zich voordoen als mensen, zijn meestal bijzonder goed voor het verspreiden van enorme aantallen zeer emotionele berichten met weinig informatieve inhoud. Denk hierbij aan een bericht met de afbeelding van Hillary Clinton achter de tralies en de woorden "Lock Her Up!" Dat soort berichten zullen zich snel verspreiden binnen de echokamers die bevolkt worden door degenen die het al eens zijn met het basissentiment. Bots hebben een aanzienlijke kracht om mensen die al gelijkgestemden zijn op te winden, hoewel ze gemakkelijker te detecteren en te blokkeren zijn dan trollen.
Daarentegen, trollen zijn meestal echte mensen die provocerende verhalen en memes verspreiden. Trollen kunnen beter mensen overtuigen die minder overtuigd zijn en meer informatie willen.
Wat voor soort mensen zijn het meest vatbaar?
Paté-Cornell en Trammell zeggen dat er aanzienlijk bewijs is dat ouderen, vooral jongeren en lager opgeleiden zijn gevoelig voor nepnieuws. Maar in de ruimste zin zijn het aanhangers van de politieke uitersten, liberaal of conservatief, die het liefst een vals verhaal geloven, deels vanwege de vooringenomenheid van bevestiging - de neiging van ons allemaal om verhalen te geloven die onze overtuigingen versterken - en hoe sterker die overtuigingen, hoe krachtiger de persoon de aantrekkingskracht van de bevestigingsbias voelt.
Is inenting mogelijk?
Paté-Cornell en Trammell zeggen dat, net als gewone misdaad, desinformatie zal nooit verdwijnen. Maar door te leren hoe het wordt verspreid via sociale media, de onderzoekers zeggen dat het mogelijk is om terug te vechten. Social-mediaplatforms zouden veel sneller kunnen worden in het opsporen van verdachte inhoud. Ze zouden dan waarschuwingen kunnen toevoegen - een vorm van inenting - of ze kunnen er meer van in quarantaine plaatsen.
De uitdaging, ze zeggen, is dat bescherming kosten met zich meebrengt:financiële kosten, maar ook minder gemak en beperkingen op de vrije meningsuiting. Paté-Cornell zegt dat de gevaren van nepnieuws moeten worden geanalyseerd als een strategisch managementrisico, vergelijkbaar met hoe we traditioneel de risico's van cyberaanvallen hebben geanalyseerd die gericht zijn op het uitschakelen van kritieke infrastructuur. "Het is een kwestie van hoe we onze middelen het beste kunnen beheren om het risico te minimaliseren, "zegt ze. "Hoeveel ben je bereid te besteden, en welk risiconiveau zijn we bereid te accepteren?"
Wat brengt de toekomst?
Nepnieuws is al een kwestie van nationale veiligheid. Maar Paté-Cornell en Trammell voorspellen dat kunstmatige intelligentie de komende jaren nepnieuws een boost zal geven. AI zal het veel gemakkelijker maken om mensen te targeten met nepnieuws of deepfake-video's - video's die echt lijken maar geheel of gedeeltelijk zijn verzonnen - die nauwkeurig zijn afgestemd op wat een gevoelige kijker waarschijnlijk zal accepteren en misschien verspreiden. AI kan het ook gemakkelijk maken om legers van meer invloedrijke bots te creëren die de sociale achtergrond van een doelwit lijken te delen, geboorteplaats, persoonlijke interesses of religieuze overtuigingen. Dergelijke vormen van hypertargeting zouden de berichten veel overtuigender maken. AI toont ook een groot potentieel om deze plaag te bestrijden door valse inhoud in alle vormen te identificeren, maar alleen de tijd zal uitwijzen wie de overhand heeft in deze new age wapenwedloop.
Wetenschap © https://nl.scienceaq.com