science >> Wetenschap >  >> Elektronica

Deepfakes:vechten tegen nepvideo's, van Silicon Valley naar Washington

Krediet:CC0 Publiek Domein

Of het nu een video is die het gezicht van iemand anders op een ander lichaam laat zien of voormalig president Barack Obama die dingen zegt die hij niet echt zei, "deepfakes" zijn nu een ding.

Een ander populair gebruik van dergelijke gemanipuleerde video's:nepporno, met iedereen, van actrice Scarlett Johansson tot mogelijk iedereen wiens foto's online beschikbaar zijn.

Johansson, die onbewust de hoofdrol heeft gespeeld in een zogenaamd gelekte pornografische video die de Washington Post zegt dat het meer dan 1,5 miljoen keer is bekeken op een grote pornosite, vindt de situatie hopeloos.

"Niets kan iemand ervan weerhouden om mijn afbeelding of die van iemand anders op een ander lichaam te knippen en te plakken en het er zo griezelig realistisch uit te laten zien als gewenst, "zei ze tegen de Na in een verhaal dat een paar dagen geleden is gepubliceerd. "Het internet is een enorm wormgat van duisternis dat zichzelf opeet."

Daarom zijn onderzoekers hard aan het werk om manieren te vinden om dergelijke vervalsingen op te sporen. onder meer bij SRI International in Menlo Park.

Het manipuleren van video's was vroeger het spul van films, gedaan door Disney, Pixar en anderen, zei Bob Bolles, programmadirecteur bij het perceptieprogramma van het AI-centrum bij SRI. "Nu worden face-swap-apps steeds beter."

Bolles liet onlangs zien hoe hij en zijn team proberen te detecteren wanneer er met video is geknoeid.

Het team zoekt naar inconsistenties tussen video en de audiotrack, bijvoorbeeld kijken of iemands lipbewegingen overeenkomen met de geluiden van de video. Denk aan video's die niet zo voor de hand liggend zijn als die oude, slecht nagesynchroniseerde kungfu-films.

Het team probeert ook geluiden te detecteren die mogelijk niet met de achtergrond stroken, zei Aaron Lawson, adjunct-directeur van het spraaklab bij SRI. Bijvoorbeeld, de video kan een woestijnscène tonen, maar nagalm kan erop wijzen dat het geluid binnenshuis is opgenomen.

"We hebben een reeks tests nodig" om bij te blijven met hackers die vast en zeker nieuwe manieren moeten bedenken om mensen voor de gek te houden, zei Bolles.

Het SRI-team is slechts een van de vele organisaties, universiteiten en bedrijven die proberen deepfakes te detecteren en zelfs te traceren onder een DARPA-programma genaamd MediFor, wat een afkorting is voor media forensics. Matt Turek, programmadirecteur voor MediFor bij het Defense Advanced Research Projects Agency in Washington, gelijkstroom, zei dat 14 hoofdaannemers aan het project werken, die in de zomer van 2016 is gestart. Die aannemers hebben onderaannemers die werken aan MediFor, te.

"Er is het afgelopen jaar een significante verandering geweest naarmate geautomatiseerde manipulaties overtuigender zijn geworden, " zei Turek. Kunstmatige intelligentie en machine learning hebben ertoe bijgedragen dat tools om deepfakes krachtiger te maken, en onderzoekers gebruiken AI om terug te vechten.

"De uitdaging is om algoritmen te maken om de technologie die er is bij te houden en voor te blijven. ' zei Turek.

DARPA hoopt dat de vruchten van het MediFor-programma wijd en zijd zullen worden verspreid, opgepikt door technologiebedrijven zoals Facebook en YouTube, die een groot deel van de door gebruikers gegenereerde video's ter wereld verwerken.

Bijvoorbeeld, een video die afgelopen april door BuzzFeed op YouTube is gepubliceerd, met komiek en acteur Jordan Peele die Obama buikspreekt - waarbij de voormalige president president Donald Trump schijnbaar een krachtterm noemt - heeft meer dan 5,3 miljoen views.

Turek vinkte andere mogelijke toepassingen voor deepfakes aan, zoals het verkeerd voorstellen van producten die online worden verkocht, of om verzekeringsmaatschappijen te faken over auto-ongelukken. Hij zei dat er aanwijzingen zijn dat onderzoekers gemanipuleerde afbeeldingen gebruiken om hun wetenschappelijke bevindingen te publiceren. En hij voorspelt dat uiteindelijk, tools zouden zo goed kunnen worden dat een reeks deepfakes mensen kan overtuigen van belangrijke gebeurtenissen die niet hebben plaatsgevonden - denk aan de complottheoretici.

"Deepfakes kunnen de manier veranderen waarop we beeld en video als samenleving vertrouwen, ' zei Turek.

©2019 The Mercury News (San Jose, Californië)
Gedistribueerd door Tribune Content Agency, LLC.