Wetenschap
Krediet:CC0 Publiek Domein
Vroeger kostte het veel tijd en expertise om video's realistisch te vervalsen. Niet meer.
Al decenia, authentiek ogende videoweergaven werden alleen gezien in sci-fi-films met een groot budget, zoals 'Star Wars'. Echter, dankzij de opkomst van kunstmatige intelligentie, doktersbeelden zijn toegankelijker dan ooit geworden, waarvan onderzoekers zeggen dat het een bedreiging vormt voor de nationale veiligheid.
"Tot voor kort, audio- (en) video-opnames hebben we grotendeels kunnen vertrouwen, " zei Hany Farid, hoogleraar computerwetenschappen aan het Dartmouth College. Hij zei dat vooruitgang op het gebied van machine learning de toegang tot tools voor het maken van geavanceerde en meeslepende nepvideo en -audio heeft gedemocratiseerd.
"Er is geen verbeeldingskracht voor nodig om te zien hoe dit als wapen kan worden gebruikt om de verkiezingen te verstoren. om burgerlijke onrust te zaaien of om fraude te plegen, ' zei Farid.
Nu de presidentsverkiezingen van 2020 in aantocht zijn en het Amerikaanse defensieagentschap zich zorgen maakt over gemanipuleerde video's die kiezers misleiden, wetgevers en onderwijsinstellingen haasten zich om software te ontwikkelen die zogenaamde deepfakes kan herkennen en stoppen voordat ze zelfs maar op internet zijn verschenen.
Deepfakes
Brede bezorgdheid over het idee dat de videovervalsingen eind 2017 de krantenkoppen haalden toen computersoftware werd gebruikt om beroemdheden in porno te plaatsen met behulp van computersoftware.
Een van de bekendste voorbeelden is gemaakt door het productiebedrijf van regisseur Jordan Peele in 2018. In de video is te zien hoe voormalig president Barack Obama mensen waarschuwt om niet alles te geloven wat ze op internet zien.
Echter, het is niet echt Obama die praat. Het is Peele die de voormalige president uitspreekt.
Waarschuwing:de onderstaande video bevat grof taalgebruik om zijn punt te maken en is mogelijk niet geschikt voor jonge kijkers.
Vanaf dat moment, het ministerie van Defensie, via het Defense Advanced Research Projects Agency (DARPA), begon manieren te ontwikkelen om te detecteren wanneer een video een deepfake is.
Een woordvoerder van het bureau zei in maart dat hoewel veel videomanipulaties voor de lol worden uitgevoerd, andere zijn veel gevaarlijker omdat ze kunnen worden gebruikt om propaganda en verkeerde informatie te verspreiden.
De organisatie probeert online vlaggen en filters te ontwikkelen die voorkomen dat gemanipuleerde inhoud naar internet wordt geüpload.
Het kost slechts ongeveer 500 afbeeldingen of 10 seconden video om een realistische deepfake te maken, volgens Siwei Lyu, een onderzoeker die samen met Defensie software ontwikkelt om de verspreiding van deepfakes op te sporen en te voorkomen.
Lyu zei dat iedereen die foto's op sociale netwerksites zoals Instagram plaatst, het risico loopt te worden gedeepfaakt.
Software oplossingen
Het eerste stukje software dat Lyu en zijn team van onderzoekers aan de Universiteit van Albany vorig jaar introduceerden, konden in een oogwenk een deepfake-video zien, letterlijk, door te analyseren hoe vaak de gesimuleerde gezichten knipperen - of niet.
"We ontdekten dat de onderwerpen (in deepfake-video's) niet erg veel knipperen, en soms helemaal niet " zei Lyu. "Toen vroegen we waarom dit gebeurt."
De onderzoekers ontdekten dat de software die gebruikt wordt om deepfakes te maken vaak afhankelijk is van foto's die op internet beschikbaar zijn. Er zijn niet veel foto's beschikbaar van spraakmakende mensen met hun ogen dicht, zodat de geanimeerde onderwerpen in de nepvideo's niet knipperen, zei Lyu.
Toen de makers van deepfakes lucht begonnen te krijgen van de nieuwe software, de onderzoekers ontwikkelden andere methoden om deepfakes te herkennen, zoals het gebruik van algoritmen die onnatuurlijke bewegingen tussen gezichten en hoofden detecteren, evenals software die beeldmateriaal analyseert op het verlies van subtiele details.
"De huid van het door deepfake gegenereerde gezicht is meestal te glad, en sommige details van haar en tanden zullen verloren gaan, " zei Lyu. "Als je beter naar de tanden kijkt, ze lijken meer op een heel wit blok dan op individuele tanden."
Ook onderzoekers van de University of Washington experimenteren met deepfake-technologie. De school ontdekte hoe audioclips in 2017 kunnen worden omgezet in een lip-gesynchroniseerde video van de persoon die deze woorden uitspreekt.
criminalisering
Eind vorig jaar, Sen. Ben Sasse (R-Neb.) diende een wetsvoorstel in bij het Congres dat mensen zou straffen voor het kwaadwillig creëren en verspreiden van deepfakes. De rekening, die de dag voor de sluiting van de regering werd ingevoerd, vloog onder de radar en stierf. Maar het kantoor van Sasse is van plan het opnieuw in te voeren.
USA Today nam contact op met Sasse voor meer informatie.
De senator zei in een recent interview met radiopresentator Glenn Beck dat de "perfecte storm van diepe vervalsingen" binnenkort komt.
De staat New York heeft in 2018 een wetsvoorstel ingediend dat mensen zou straffen die digitale video's van onderwerpen maken zonder hun toestemming.
Ondanks de bezorgdheid over de hypothetische gevaren, misbruik van deepfakes moet nog worden gezien buiten video's voor volwassenen. The Verge publiceerde in maart een rapport waarin de vraag wordt gesteld of technologie voor het verwisselen van gezichten zelfs een grote bedreiging vormt, aangezien het al jaren algemeen beschikbaar is.
Lyu zei dat hij twijfelt of deepfakes een oorlog kunnen beginnen, and it is unlikely that they will have a long-lasting effect on society as people become increasingly aware of the phenomenon.
Lyu suggested that people may even become desensitized by them.
Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.
The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.
To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.
Vandaag, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.
One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.
Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.
AI generated humans have also begun showing up on television.
The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.
Op het eerste gezicht, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.
But seconds into the video, it's apparent that he's not real.
"I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."
The agency's first fake female news anchor went live in February and she appears to be even more realistic.
(c)2019 VS vandaag
Gedistribueerd door Tribune Content Agency, LLC.
Wetenschap © https://nl.scienceaq.com