Wetenschap
Grote veranderingen van het ene frame naar het andere kunnen duiden op problemen. Krediet:Jesse Milaan/Flickr, CC BY
Vroeger konden alleen Hollywood-productiebedrijven met diepe zakken en teams van bekwame artiesten en technici deepfake-video's maken, realistische verzinsels die mensen laten zien die dingen doen en zeggen die ze nooit hebben gedaan of gezegd. Niet meer:met software die gratis online beschikbaar is, kan iedereen met een computer en wat tijd over om overtuigende nepvideo's te maken.
Of het nu wordt gebruikt voor persoonlijke wraak, om beroemdheden lastig te vallen of de publieke opinie te beïnvloeden, deepfakes maken het eeuwenoude axioma dat "zien is geloven" onwaar.
Mijn onderzoeksteam en ik van het University of Southern California Information Sciences Institute ontwikkelen manieren om het verschil te zien tussen realistisch ogende vervalsingen en echte video's die werkelijke gebeurtenissen laten zien zoals ze zich hebben voorgedaan. Ons recente onderzoek heeft een nieuwe en schijnbaar nauwkeurigere manier gevonden om deepfake-video's te detecteren.
De gebreken vinden
In het algemeen, verschillende deepfake-algoritmen werken met behulp van machine learning-technieken om afbeeldingen van het doelwit te analyseren, identificeren van de belangrijkste elementen van gezichtsuitdrukkingen zoals de neus, mondhoeken, locaties van de ogen enzovoort. Ze gebruiken die informatie om nieuwe beelden van het gezicht van die persoon te synthetiseren en samen te voegen om een video van het doelwit te maken die er realistisch uitziet maar nep is.
Bij de meeste huidige methoden voor het detecteren van deepfakes wordt elk frame van een video afzonderlijk bekeken, handmatig of met behulp van een detectie-algoritme, om kleine gebreken te ontdekken die zijn achtergelaten door het beeldfabricageproces. Als er genoeg bewijs is van geknoei in voldoende frames, de video wordt als nep beschouwd.
Echter, deepfake-makers zijn begonnen grote hoeveelheden beeld- en videocompressie te gebruiken om hun resultaten te vervagen, het verbergen van artefacten die hun onwaarheid zouden kunnen onthullen.
Opeenvolgingen bekijken, geen enkele frames
Onze methode probeert die misleiding te omzeilen door een andere aanpak te kiezen. We halen alle frames uit een video en identificeren de gebieden die het gezicht van het doelwit laten zien. Dan gaan we, in werkelijkheid, stapel al die gezichtsafbeeldingen op elkaar, ervoor zorgen dat de neus, ogen en mond zijn allemaal uitgelijnd tussen elk frame. Dit elimineert de effecten van hoofdbewegingen of camerahoekverschuivingen in de video.
Een algoritme identificeert gezichtselementen in een frame uit een video. Krediet:Wael Abd-Almageed, CC BY-ND
Vervolgens, in plaats van elk gezichtsbeeld afzonderlijk te bekijken, we zoeken naar inconsistenties in hoe verschillende delen van het gezicht in de loop van de tijd van frame naar frame bewegen. Het is net zoiets als het opzetten van een flip-boek voor kinderen en dan kijken naar rare sprongen in de reeks. We hebben ontdekt dat deze methode nauwkeuriger is, gedeeltelijk omdat we meer bewijs van onwaarheid kunnen identificeren dan wanneer we alleen naar elk frame kijken.
specifiek, we detecteerden 96% van de tijd deepfakes, zelfs wanneer de afbeeldingen en video's aanzienlijk zijn gecomprimeerd. Tot dusver hebben we dat nauwkeurigheidsniveau alleen gevonden in de enige grootschalige database die beschikbaar is voor academische onderzoekers voor het evalueren van hun deepfake-detectietechnieken, die FaceForensics++ wordt genoemd. Die dataset bevat video's van drie van de meest prominente deepfake-generatiealgoritmen, Face2Face, FaceSwap en DeepFake, hoewel fakers hun methoden altijd verbeteren.
Deepfake-detectie is een wapenwedloop, waarin fakers en waarheidzoekers hun respectievelijke technologieën zullen blijven ontwikkelen. Daarom, de taak om hun effecten op de samenleving als geheel te beperken, kan niet alleen aan onderzoekers liggen. Geleerden en onderzoekers moeten blijven werken, natuurlijk, maar dat is niet alles. Ik ben van mening dat sociale netwerkplatforms ook zouden moeten werken aan het ontwikkelen van software en beleid die de verspreiding van alle soorten verkeerde informatie vertragen - of het nu gaat om het manipuleren van iemands gezicht of het tonen van hun hele lichaam in beweging op manieren die ze nooit zouden kunnen.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com