Wetenschap
Krediet:CC0 Publiek Domein
Een video op sociale media toont een hooggeplaatste Amerikaanse wetgever die zijn steun uitspreekt voor een overweldigende belastingverhoging. Je reageert dienovereenkomstig omdat de video op hem lijkt en op hem klinkt, dus hij is het zeker geweest.
Niet noodzakelijk.
De term 'nepnieuws' krijgt een veel letterlijke wending omdat nieuwe technologie het gemakkelijker maakt om de gezichten en audio in video's te manipuleren. de video's, zogenaamde deepfakes, kunnen vervolgens op elke sociale-mediasite worden geplaatst zonder enige indicatie dat ze niet echt zijn.
Edward Delp, directeur van het Video and Imaging Processing Laboratory aan de Purdue University, zegt dat deepfakes een groeiend gevaar vormen nu de volgende presidentsverkiezingen snel naderbij komen.
"Het is mogelijk dat mensen nepvideo's gaan gebruiken om nepnieuws te maken en deze in te voegen in een politieke verkiezing, " zei Delp, de Charles William Harrison Distinguished Professor in Electrical and Computer Engineering. "Daar is al enig bewijs van bij andere verkiezingen over de hele wereld.
"We hebben onze verkiezingen in 2020 en ik vermoed dat mensen deze zullen gebruiken. Mensen geloven ze en dat zal het probleem zijn."
De video's vormen een gevaar voor de rechtbank van de publieke opinie via sociale media, aangezien bijna 70 procent van de volwassenen aangeeft dat ze Facebook gebruiken, meestal dagelijks. YouTube heeft nog hogere cijfers, met meer dan 90 procent van de 18- tot 24-jarigen die het gebruiken.
Delp en promovendus David Güera hebben twee jaar gewerkt aan videomanipulatie als onderdeel van een groter onderzoek naar mediaforensics. Ze hebben gewerkt met geavanceerde machine learning-technieken op basis van kunstmatige intelligentie en machine learning om een algoritme te creëren dat deepfakes detecteert.
Eind vorig jaar, Delp en het algoritme van zijn team wonnen een wedstrijd van het Defense Advanced Research Projects Agency (DARPA). DARPA is een agentschap van het Amerikaanse ministerie van Defensie.
"Door de video te analyseren, het algoritme kan zien of het gezicht consistent is met de rest van de informatie in de video, "Zei Delp. "Als het inconsistent is, we detecteren deze subtiele inconsistenties. Het kan zo klein zijn als een paar pixels, het kunnen inconsistenties zijn, het kunnen verschillende soorten vervorming zijn."
"Ons systeem is datagedreven, zodat het naar alles kan zoeken – het kan kijken naar afwijkingen zoals knipperen, het kan zoeken naar afwijkingen in verlichting, " zei Guera, het toevoegen van het systeem zal steeds beter worden in het detecteren van deepfakes omdat ze het meer voorbeelden geven om van te leren.
Het onderzoek werd in november gepresenteerd op de IEEE International Conference on Advanced Video and Signal Based Surveillance 2018 in 2018.
Deepfakes kunnen ook worden gebruikt om pornografische video's en afbeeldingen te vervalsen, met behulp van de gezichten van beroemdheden of zelfs kinderen.
Delp zei dat vroege deepfakes gemakkelijker te herkennen waren. De technieken konden de oogbeweging niet goed nabootsen, resulterend in video's van een persoon die niet knipperde. Maar door de vooruitgang is de technologie beter en meer beschikbaar voor mensen.
Nieuwsorganisaties en sociale-mediasites maken zich zorgen over de toekomst van deepfakes. Delp voorziet dat beide in de toekomst tools zoals zijn algoritme zullen hebben om te bepalen welke videobeelden echt zijn en wat een deepfake.
"Het is een wapenwedloop, " zei hij. "Hun technologie wordt steeds beter, maar ik denk graag dat we in staat zullen zijn om bij te blijven."
Wetenschap © https://nl.scienceaq.com