science >> Wetenschap >  >> Elektronica

Dit diepe neurale netwerk bestrijdt deepfakes

AI zal dienen om een ​​netwerkcontrolesysteem te ontwikkelen dat niet alleen problemen detecteert en erop reageert, maar ze ook kan voorspellen en vermijden. Krediet:CC0 Publiek Domein

Zien was geloven totdat de technologie de kop opstak en ons krachtige en goedkope fotobewerkingstools gaf. Nutsvoorzieningen, realistische video's die de gezichtsuitdrukkingen van de ene persoon in kaart brengen op die van de ander, bekend als deepfakes, een formidabel politiek wapen vormen.

Maar of het nu gaat om het goedaardige gladstrijken van een rimpel in een portret, of een video die is gemanipuleerd om het te laten lijken alsof een politicus iets beledigends zegt, alle fotobewerking laat sporen achter voor de juiste tools om te ontdekken.

Onderzoek geleid door Amit Roy-Chowdhury's Video Computing Group aan de Universiteit van Californië, Riverside heeft een diepe neurale netwerkarchitectuur ontwikkeld die gemanipuleerde beelden op pixelniveau met hoge precisie kan identificeren. Roy-Chowdhury is een professor in elektrische en computertechniek en de Bourns Family Faculty Fellow in het Marlan and Rosemary Bourns College of Engineering.

Een diep neuraal netwerk is wat kunstmatige intelligentie-onderzoekers computersystemen noemen die zijn getraind om specifieke taken uit te voeren, in dit geval, gewijzigde afbeeldingen herkennen. Deze netwerken zijn georganiseerd in verbonden lagen; "architectuur" verwijst naar het aantal lagen en de structuur van de verbindingen daartussen.

Objecten in afbeeldingen hebben grenzen en wanneer een object wordt ingevoegd of verwijderd uit een afbeelding, zijn grens zal van nature andere kwaliteiten hebben dan de grenzen van objecten in het beeld. Bijvoorbeeld, iemand met goede Photoshop-vaardigheden zal zijn best doen om het ingevoegde object er zo natuurlijk mogelijk uit te laten zien door deze grenzen glad te strijken.

Hoewel dit het blote oog misschien voor de gek houdt, wanneer onderzocht pixel voor pixel, de grenzen van het ingevoegde object zijn verschillend. Bijvoorbeeld, ze zijn vaak gladder dan de natuurlijke objecten. Door de grenzen van ingevoegde en verwijderde objecten te detecteren, een computer moet gewijzigde afbeeldingen kunnen identificeren.

De onderzoekers labelden niet-gemanipuleerde afbeeldingen en de relevante pixels in grensgebieden van gemanipuleerde afbeeldingen in een grote dataset van foto's. Het doel was om het neurale netwerk algemene kennis bij te brengen over de gemanipuleerde en natuurlijke regio's van foto's. Ze testten het neurale netwerk met een reeks beelden die het nog nooit eerder had gezien, en het detecteerde meestal de gewijzigde. Het zag zelfs de gemanipuleerde regio.

"We hebben het systeem getraind om onderscheid te maken tussen gemanipuleerde en niet-gemanipuleerde afbeeldingen, en als je het nu een nieuwe afbeelding geeft, kan het een kans geven dat die afbeelding is gemanipuleerd of niet, en om het gebied van de afbeelding te lokaliseren waar de manipulatie plaatsvond, ' zei Roy-Chowdhury.

De onderzoekers werken voorlopig aan stilstaande beelden, maar ze wijzen erop dat dit hen ook kan helpen deepfake-video's te detecteren.

"Als je de kenmerken van een stilstaand beeld kunt begrijpen, in een video zet je eigenlijk gewoon stilstaande beelden achter elkaar, "Zei Roy-Chowdhury. "De meer fundamentele uitdaging is waarschijnlijk om erachter te komen of een frame in een video gemanipuleerd is of niet."

Zelfs een enkel gemanipuleerd frame zou een rode vlag opwerpen. Maar Roy-Chowdhury denkt dat we nog een lange weg te gaan hebben voordat geautomatiseerde tools deepfake-video's in het wild kunnen detecteren.

"Het is een uitdagend probleem, "Zei Roy-Chowdhury. "Dit is een soort kat-en-muisspel. Dit hele gebied van cyberbeveiliging probeert in zekere zin betere verdedigingsmechanismen te vinden, maar dan vindt de aanvaller ook betere mechanismen."

Hij zei dat volledig geautomatiseerde deepfake-detectie in de nabije toekomst misschien niet haalbaar is.

"Als je wilt kijken naar alles wat op internet staat, een mens kan het niet aan de ene kant, en een geautomatiseerd systeem kan het waarschijnlijk niet betrouwbaar doen. Het moet dus een mix van de twee zijn, ' zei Roy-Chowdhury.

Diepe neurale netwerkarchitecturen kunnen lijsten met verdachte video's en afbeeldingen produceren die mensen kunnen bekijken. Geautomatiseerde tools kunnen de hoeveelheid gegevens verminderen die mensen, zoals moderators van Facebook-inhoud, moeten doorzoeken om te bepalen of een afbeelding is gemanipuleerd.

Voor dit gebruik, de tools zijn om de hoek.

"Dat is waarschijnlijk iets waar deze technologieën op zeer korte termijn aan zullen bijdragen, waarschijnlijk over een paar jaar, ' zei Roy-Chowdhury.