Wetenschap
Krediet:CC0 Publiek Domein
Meer dan een decennium geleden, Internetanalist en nieuwe media-wetenschapper Clay Shirky zei:"De enige echte manier om een einde te maken aan spam is het afsluiten van e-mailcommunicatie." Zal het afsluiten van internet de enige manier zijn om een einde te maken aan deepfake-propaganda in 2020?
Vandaag, iedereen kan zijn eigen nepnieuws maken en het ook breken. Online propaganda is meer misleidend en manipulatief dan ooit.
Deepfakes, een specifieke vorm van desinformatie die machine learning-algoritmen gebruikt om audio en video te creëren van echte mensen die dingen zeggen en doen die ze nooit hebben gezegd of gedaan, gaan snel in de richting van niet te onderscheiden van de werkelijkheid.
Detectie van desinformatie die wordt aangedreven door onethisch gebruik van digitale media, big data en kunstmatige intelligentie, en hun verspreiding via sociale media, is van het grootste belang.
Landen moeten hun burgers opleiden en toerusten. Opvoeders staan ook voor echte uitdagingen om jongeren te helpen adelaarsogen te ontwikkelen voor deepfakes. Als jongeren geen vertrouwen hebben in het vinden en evalueren van betrouwbare openbare informatie, hun motivatie om deel te nemen aan of te vertrouwen op onze democratische structuren zal steeds meer in gevaar komen.
Ondermijning van de democratie
Het is nu mogelijk om een video te genereren van een persoon die spreekt en gewone uitdrukkingen maakt van slechts enkele of zelfs een enkele afbeelding van het gezicht van deze persoon. Face swap-apps zoals FaceApp en lip-sync-apps zoals Dubsmash zijn voorbeelden van toegankelijke gebruiksvriendelijke basisdeepfake-tools die mensen kunnen gebruiken zonder enige programmeer- of codeerachtergrond.
Hoewel het gebruik van deze technologie kijkers kan verrukken of verbluffen vanwege de deskundige afbeeldingen in de entertainment- en game-industrie, het sinistere gezicht van deepfakes is een ernstige bedreiging voor zowel de veiligheid van de mensen als de democratie.
Het potentieel van deepfakes om als wapen te worden gebruikt, neemt alarmerend toe en veel schade kan worden verwacht op basis van het vermogen van mensen om expliciete inhoud te creëren zonder toestemming van anderen.
Er wordt verwacht dat mensen deepfakes zullen gebruiken om cyberpesten te plegen, reputaties vernietigen, chantage, haatdragende taal verspreiden, aanzetten tot geweld, democratische processen verstoren, het verspreiden van desinformatie onder specifieke doelgroepen en het plegen van cybercriminaliteit en fraude.
Deepfake-detectie
Sleutelspelers hebben het gewaagd om een antwoord te vinden op deepfake-dreigingen.
Facebook kondigde op 6 januari aan dat het "zijn beleid zal versterken ten aanzien van misleidende gemanipuleerde video's die zijn geïdentificeerd als deepfakes." Het bedrijf zegt dat het gemanipuleerde media zal verwijderen die "bewerkt of gesynthetiseerd zijn - verder dan aanpassingen voor duidelijkheid of kwaliteit - op manieren die de gemiddelde persoon niet ziet" en als de media "het product zijn van kunstmatige intelligentie of machine learning dat samensmelt , inhoud vervangt of over een video heen plaatst, waardoor het authentiek lijkt."
Het nieuws volgt op Facebook's "deepfake challenge, " die tot doel heeft nieuwe tools te ontwerpen die gemanipuleerde media-inhoud detecteren. De uitdaging wordt ondersteund door Microsoft, een consortium op het gebied van kunstmatige intelligentie en een fonds van 10 miljoen dollar.
Eind oktober, Facebook-CEO Mark Zuckerberg getuigde tijdens een hoorzitting van de Financial Services Committee van het Amerikaanse Huis van Afgevaardigden in Washington over de cryptocurrency-plannen van het bedrijf, waar Zuckerberg werd geconfronteerd met vragen over wat het bedrijf doet om deepfakes te voorkomen.
Het Defense Advanced Research Projects Agency (DARPA) van het Amerikaanse ministerie van Defensie werkt aan het gebruik van specifieke soorten algoritmen om de integriteit van digitale visuele media te beoordelen.
Sommige onderzoekers bespreken het gebruik van convolutionele neurale netwerken - een reeks algoritmen die het menselijk brein losjes repliceren, ontworpen om visuele beelden te analyseren en patronen te herkennen - om de inconsistenties tussen de meerdere frames in deepfakes te detecteren. Anderen stellen algoritmen voor om volledig gegenereerde gezichten te detecteren.
Hani Farid, een expert in digitaal forensisch onderzoek en een van de toonaangevende autoriteiten op het gebied van het opsporen van nepfoto's, en zijn student Shruti Agarwal aan de Universiteit van Californië, Berkeley ontwikkelt software die de subtiele kenmerken van hoe een persoon spreekt, gebruikt om deze persoon te onderscheiden van de nepversie.
Farid werkt ook nauw samen met deepfake-pionier Hao Li om het probleem van "steeds naadloze, kant-en-klare misleiding" aan te pakken.
YouTube-natie
Wat als we morgen wakker worden met een deepfake van Greta Thunberg, Tijd tijdschrift persoon van het jaar 2019, een specifieke organisatie ervan beschuldigen de belangrijkste katalysator van klimaatverandering te zijn? Zouden er jongeren sceptisch zijn over de informatie?
We leven in een digitaal tijdperk waarin veel mensen verwachten dat elk antwoord via een Google-zoekopdracht wordt gevonden, een YouTube- of Vimeo-video of een TED-talk. Bijna 100 procent van de Canadese jongeren tussen 15 en 24 jaar gebruikt dagelijks internet. De meesten volgen nieuws en actualiteiten via sociale mediaplatforms zoals Facebook, Twitter en Instagram.
in 2017, 90 procent van de Canadezen van 18 tot 24 jaar waren actieve YouTube-gebruikers.
Volgens Statista, een bedrijf dat markt- en consumentengegevens levert, "vanaf mei 2019, er werd elke minuut meer dan 500 uur aan video geüpload naar YouTube, " gelijk aan "ongeveer 30, 000 uur nieuw geüploade inhoud per uur." Het bedrijf meldt dat tussen 2014 en 2019 "het aantal video-inhoudsuren dat elke 60 seconden werd geüpload met ongeveer 40 procent groeide."
Veel van de huidige 18- tot 24-jarige gebruikers van sociale media herkennen de agenda's en algoritmen achter de berichten die op hun muren verschijnen. In mijn Ph.D. scriptie onderzoek, Ik onderzocht hoe 42 deelnemers in deze leeftijdsgroep vluchtelingen begrepen in een context waarin ideeën over vluchtelingen sterk werden beïnvloed door propaganda van sociale media, nepnieuws en desinformatie. Ik ontdekte dat velen ernaar verlangden influencers te worden en publieke commentaren en door de media gegenereerde berichten te verstoren op manieren die resoneren met belangenbehartiging of activistische campagnes die tegenwoordig door jongeren worden geleid.
Het deepfake-fenomeen is een nieuwe kritische uitdaging die zij, en alle deelnemers aan onze democratieën, nu gezicht.
Onderwijs voor veerkracht
In Canada, Journalisten voor Mensenrechten hebben een nieuw programma aangekondigd, gefinancierd door Heritage Canada, om journalisten op te leiden en "de paraatheid van burgers tegen onlinemanipulatie en verkeerde informatie" te vergroten.
Opvoeders kunnen een sleutelrol spelen bij het stimuleren van jongerenagentschappen om deepfakes op te sporen en hun invloed te verminderen. Een uitdaging is ervoor te zorgen dat jongeren kritische mediageletterdheid leren, terwijl ze waardevolle bronnen online blijven verkennen en hun capaciteiten en kennis opbouwen om deel te nemen aan democratische structuren.
Door de stappen te volgen die ik heb geïdentificeerd in het model "Get Ready to Act Against Social Media Propaganda" - te beginnen met het uitleggen van standpunten over een controversieel onderwerp dat wordt getarget door middel van propaganda op sociale media - kunnen opvoeders jongeren helpen te bespreken hoe ze deepfakes waarnemen en herkennen. Ze kunnen de oorsprong van de inhoud verkennen, op wie het is gericht, de reactie die het probeert te bereiken en wie erachter zit.
Ze kunnen ook de rol en verantwoordelijkheid van jongeren bespreken om te reageren en op te staan tegen desinformatie en mogelijke digitale strategieën om in dit proces te volgen. Een goed uitgeruste generatie digitale burgers zou onze beste gok kunnen zijn.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com