Science >> Wetenschap >  >> anders

Een generatief AI-model laat zien dat nepnieuws meer impact heeft als het in een gestaag tempo en zonder onderbrekingen wordt uitgebracht

Krediet:Pixabay/CC0 Publiek Domein

Het is helemaal niet duidelijk dat desinformatie tot nu toe verkiezingen heeft veroorzaakt die anders een andere kant op zouden zijn gegaan. Maar er bestaat een sterk gevoel dat het toch een aanzienlijke impact heeft gehad.



Nu AI nu wordt gebruikt om zeer geloofwaardige nepvideo's te maken en desinformatie efficiënter te verspreiden, zijn we terecht bezorgd dat nepnieuws de koers van verkiezingen in de niet al te verre toekomst zou kunnen veranderen.

Om de dreiging in te kunnen schatten en gepast te kunnen reageren, hebben we een beter inzicht nodig in hoe schadelijk het probleem zou kunnen zijn. In de natuur- of biologische wetenschappen zouden we een hypothese van deze aard testen door een experiment vele malen te herhalen.

Maar in de sociale wetenschappen is dit veel moeilijker, omdat het vaak niet mogelijk is experimenten te herhalen. Als je de impact van een bepaalde strategie op bijvoorbeeld een komende verkiezing wilt weten, kun je de verkiezingen niet een miljoen keer herhalen om te vergelijken wat er gebeurt als de strategie wordt geïmplementeerd en wanneer deze niet wordt geïmplementeerd.

Je zou dit een één-geschiedenisprobleem kunnen noemen:er is maar één geschiedenis die gevolgd kan worden. Je kunt de klok niet terugdraaien om de effecten van contrafeitelijke scenario's te bestuderen.

Om deze moeilijkheid te overwinnen is een generatief model handig omdat het vele geschiedenissen kan creëren. Een generatief model is een wiskundig model voor de hoofdoorzaak van een waargenomen gebeurtenis, samen met een leidend principe dat u vertelt op welke manier de oorzaak (input) verandert in een waargenomen gebeurtenis (output).

Door de oorzaak te modelleren en het principe toe te passen, kan het veel geschiedenis genereren, en dus statistieken die nodig zijn om verschillende scenario's te bestuderen. Dit kan op zijn beurt worden gebruikt om de effecten van desinformatie bij verkiezingen te beoordelen.

In het geval van een verkiezingscampagne is de voornaamste oorzaak de voor de kiezers toegankelijke informatie (input), die wordt omgezet in bewegingen van opiniepeilingen die veranderingen in de intentie van de kiezers laten zien (waargenomen output). Het leidende principe heeft betrekking op de manier waarop mensen informatie verwerken, namelijk het minimaliseren van onzekerheden.

Door te modelleren hoe kiezers aan informatie komen, kunnen we daaropvolgende ontwikkelingen op een computer simuleren. Met andere woorden:we kunnen op een computer een ‘mogelijke geschiedenis’ creëren van hoe opiniepeilingen veranderen vanaf nu tot de verkiezingsdag. Alleen al van één geschiedenis leren we vrijwel niets, maar nu kunnen we de simulatie (de virtuele verkiezingen) een miljoen keer uitvoeren.

Een generatief model voorspelt geen enkele toekomstige gebeurtenis vanwege de luidruchtige aard van informatie. Maar het biedt wel de statistieken van verschillende evenementen, en dat is wat we nodig hebben.

Desinformatie modelleren

Ongeveer tien jaar geleden kwam ik voor het eerst op het idee om een ​​generatief model te gebruiken om de impact van desinformatie te bestuderen, zonder enige verwachting dat het concept helaas zo relevant zou worden voor de veiligheid van democratische processen. Mijn oorspronkelijke modellen waren ontworpen om de impact van desinformatie op de financiële markten te bestuderen, maar toen nepnieuws een steeds groter probleem begon te worden, hebben mijn collega en ik het model uitgebreid om de impact ervan op verkiezingen te bestuderen.

Generatieve modellen kunnen ons de waarschijnlijkheid vertellen dat een bepaalde kandidaat een toekomstige verkiezing wint, afhankelijk van de gegevens van vandaag en de specificatie van hoe informatie over kwesties die relevant zijn voor de verkiezingen aan de kiezers wordt gecommuniceerd. Dit kan worden gebruikt om te analyseren hoe de winstkans wordt beïnvloed als kandidaten of politieke partijen hun beleidsstandpunten of communicatiestrategieën veranderen.

We kunnen desinformatie in het model opnemen om te bestuderen hoe dat de uitkomststatistieken zal veranderen. Hier wordt desinformatie gedefinieerd als een verborgen component van informatie die vooringenomenheid genereert.

Door desinformatie in het model op te nemen en een simulatie uit te voeren, vertelt het resultaat ons heel weinig over hoe dit de opiniepeilingen heeft veranderd. Maar door de simulatie vele malen uit te voeren, kunnen we de statistieken gebruiken om de procentuele verandering te bepalen in de waarschijnlijkheid dat een kandidaat een toekomstige verkiezing wint als desinformatie van een bepaalde omvang en frequentie aanwezig is. Met andere woorden:we kunnen nu de impact van nepnieuws meten met behulp van computersimulaties.

Ik moet benadrukken dat het meten van de impact van nepnieuws iets anders is dan het doen van voorspellingen over verkiezingsuitslagen. Deze modellen zijn niet ontworpen om voorspellingen te doen. In plaats daarvan leveren ze de statistieken die voldoende zijn om de impact van desinformatie in te schatten.

Heeft desinformatie impact?

Eén model voor desinformatie dat we hebben overwogen, is een type dat op een willekeurig moment wordt vrijgegeven, gedurende een korte periode in kracht toeneemt, maar vervolgens wordt gedempt (bijvoorbeeld door fact checking). We hebben vastgesteld dat het vrijgeven van dergelijke desinformatie, ruim vóór de verkiezingsdag, weinig impact zal hebben op de verkiezingsuitslag.

Als het vrijgeven van dergelijke desinformatie echter aanhoudend wordt herhaald, zal dit impact hebben. Desinformatie die gericht is op een bepaalde kandidaat zal de peiling elke keer dat deze wordt vrijgegeven enigszins in het voordeel van die kandidaat verschuiven. Van alle verkiezingssimulaties waarbij die kandidaat heeft verloren, kunnen we vaststellen bij hoeveel daarvan de uitslag is omgedraaid, op basis van een bepaalde frequentie en omvang van desinformatie.

Nepnieuws ten gunste van een kandidaat garandeert, behalve in zeldzame omstandigheden, geen overwinning voor die kandidaat. De gevolgen ervan kunnen echter worden gemeten in termen van waarschijnlijkheden en statistieken. Hoeveel heeft nepnieuws de winstkans veranderd? Hoe groot is de kans dat een verkiezingsuitslag wordt omgedraaid? En zo verder.

Eén resultaat dat als een verrassing kwam, is dat zelfs als kiezers zich er niet van bewust zijn of een bepaald stukje informatie waar of onwaar is, als ze de frequentie en de vooringenomenheid van desinformatie kennen, dit voldoende is om het grootste deel van de impact van desinformatie te elimineren. Alleen al de kennis van de mogelijkheid van nepnieuws is al een krachtig tegengif voor de gevolgen ervan.

Generatieve modellen bieden op zichzelf geen tegenmaatregelen tegen desinformatie. Ze geven ons slechts een idee van de omvang van de gevolgen. Fact checking kan helpen, maar is niet enorm effectief (de geest is al uit de fles). Maar wat als de twee worden gecombineerd?

Omdat de impact van desinformatie grotendeels kan worden afgewend door mensen te informeren dat het gebeurt, zou het nuttig zijn als factcheckers informatie zouden aanbieden over de statistieken van desinformatie die zij hebben geïdentificeerd, bijvoorbeeld:"X% van de negatieve beweringen tegen kandidaat A waren vals ." Een electoraat dat met deze informatie is uitgerust, zal minder last hebben van desinformatie.

Aangeboden door The Conversation

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.