Wetenschap
Dumbfakes en deepfakes zijn bewerkte of gewijzigde video's. Alleen in de afgelopen jaren, de mogelijkheid om deze video's te produceren en te delen is exponentieel toegenomen door, gedeeltelijk, naar kunstmatige intelligentie.
Deze nepvideo's zijn al aanwezig in de Canadese politiek en de kans is zelfs groter dat ze worden gemaakt en verspreid tijdens de lopende verkiezingscampagne van Canada.
Dumbfakes zijn video's die zijn bewerkt met traditionele videobewerkingstechnieken. Ze gebruiken technologie die gemakkelijk toegankelijk is op de meeste computers en smartphones. Politieke stommiteiten die al opdoken in de aanloop naar de verkiezingen, bevatten een video waarin het ten onrechte leek alsof premier Justin Trudeau werd afgesnauwd door de Braziliaanse president Jair Bolsonaro tijdens de G20-top in Japan in juni 2019.
In vergelijking, deepfakes maken doorgaans gebruik van zogenaamde generatieve vijandige netwerken, een soort machine learning, het gezicht van een persoon op het lichaam van iemand anders verwisselen of de trekken van iemands gezicht manipuleren.
Deepfakes kunnen ook audiomanipulatie omvatten met behulp van een stemacteur of technologie voor het nabootsen van stemmen. Technologie om deepfakes te maken heeft zich snel verspreid, inclusief een nieuwe Chinese app genaamd Zao.
Een voorbeeld van een deepfake is de video van de Canadese Conservatieve Partijleider Andrew Scheer als komiek Pee-wee Herman in een oude publieke aankondiging over crack-cocaïne:
Dumbfakes en deepfakes zijn uniek ten opzichte van andere vormen van vals nieuws door het gebruik van videomanipulatie. Ze bieden visuele representaties van veronderstelde gebeurtenissen, in tegenstelling tot woorden of stilstaande beelden, en komen daarom het dichtst in de buurt van hoe gebeurtenissen werkelijk worden ervaren. Inderdaad, studies over gemanipuleerde video's hebben aangetoond dat ze een effectief hulpmiddel zijn bij het produceren van valse herinneringen.
Terwijl dumbfakes en deepfakes zijn opgepikt door traditionele nieuwszenders, ze worden het meest waarschijnlijk gedeeld op sociale media. Dit is zorgwekkend omdat vals nieuws, specifiek politiek nepnieuws, verspreidt zich exponentieel sneller en verder dan accuraat nieuws op Twitter.
Impact op verkiezingen
Terwijl we nadenken over de impact van dumbfakes en deepfakes op de verkiezingen, het is belangrijk op te merken dat ze waarschijnlijk niet alle mensen in gelijke mate beïnvloeden.
Ze hebben hoogstwaarschijnlijk een impact op mensen die gemarginaliseerd zijn en al te maken hebben met belemmeringen voor politiek engagement. Vrouwen, bijvoorbeeld, belemmeringen ondervinden om in de politiek te blijven en te blijven. Deepfakes zullen dat waarschijnlijk verergeren omdat, sinds hun oprichting, deepfakes zijn gebruikt om vrouwen te misbruiken (bijvoorbeeld het opnemen van vrouwelijke beroemdheden in pornografische films).
Een intersectionele lens om te begrijpen hoe dumbfakes en deepfakes de verkiezingen kunnen beïnvloeden, is daarom essentieel.
Drie gebieden waarop dumbfakes en deepfakes de meeste kans hebben om een impact te hebben, zijn politieke vertegenwoordiging, deelname, en discussie.
Vertegenwoordiging
Terwijl iedereen het recht heeft om zich kandidaat te stellen, dumbfakes en deepfakes kunnen het voor mensen moeilijker maken om dit te doen. Er kunnen nepvideo's worden gemaakt om politici te chanteren om niet mee te doen of om hun campagnes in diskrediet te brengen door valse informatie te verspreiden.
Politieke kandidaten moeten nu nadenken of ze voorbereid zijn op de mogelijkheid dat dumbfakes en deepfakes zich op hen richten wanneer ze in de publieke belangstelling komen - zowel met betrekking tot campagnes als met het toegenomen aantal foto's en video's van hen die online beschikbaar zijn en die kunnen worden gebruikt om dumbfakes en deepfakes te maken.
Politieke campagnes kunnen bovendien ontsporen door een schadelijke nepvideo.
Deelname
Dumbfakes en deepfakes kunnen breder tegen het publiek worden gebruikt om burgers het zwijgen op te leggen.
Organisaties en activisten die in de publieke belangstelling staan, kunnen het doelwit zijn vanwege hun online aanwezigheid. Burgers kunnen het zwijgen worden opgelegd door het vrijgeven van een schadelijke nepvideo. Zelfs de mogelijkheid van een nepvideo kan politieke zelfcensuur bevorderen, vooral voor personen die al te maken hebben met online discriminatie (bijvoorbeeld racistische tweets).
Dumbfakes en deepfakes kunnen ook bedoeld zijn om belangrijk werk dat politieke verantwoordelijkheid bevordert in diskrediet te brengen door kritiek op de regering en onderdrukkende praktijken.
Discussie
Nepvideo's creëren een omgeving van wantrouwen die het vermogen van burgers om op basis van gedeelde informatie te werken verder belemmert. Ze zouden ook de discussie kunnen belemmeren door in te spelen op bestaande sociale spanningen in binnen- en buitenland en deze te verergeren.
We hebben dit eerder gezien. Russische desinformatie-inspanningen tijdens de Amerikaanse presidentsverkiezingen van 2016 veroorzaakten conflicten over een aantal kwesties, waaronder immigratie, wapenbeheersing en de Black Lives Matter-beweging.
Een ander probleem met dumbfakes en deepfakes is dat ze de geloofwaardigheid van videobewijs in het algemeen ondermijnen, inclusief echte video's waarin politici of anderen kunnen worden afgebeeld die compromitterend of moreel laakbaar gedrag vertonen.
Bescherming van de Canadese democratie
Wettelijke middelen om dumbfakes en deepfakes aan te pakken — inbreuk op auteursrechten en lasterwetten, bijvoorbeeld —worden momenteel onderzocht. Ook de detectietechnologie wordt verder ontwikkeld.
Maar deze benaderingen zijn mogelijk niet effectief als een dumbfake of een deepfake slechts een paar dagen voor de verkiezingen op de juiste manier wordt gedeeld. Canadese burgers moeten daarom de verantwoordelijkheid op zich nemen om informatie en video's te controleren, vooral rond verkiezingstijd.
Dumbfakes en deepfakes hebben het medium video duidelijk veranderd. De beste manier om u te beschermen tegen de desinformatie die ze verspreiden, is door u bewust te zijn van hun bestaan.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com