science >> Wetenschap >  >> Elektronica

AI kan nu nepporno maken, wraakporno nog ingewikkelder maken

Door AI gegenereerde pornografie – bekend als “deepfakes” – wordt steeds overtuigender, naadloos en echt. Krediet:Shutterstock

In januari van dit jaar, er is een nieuwe app uitgebracht die gebruikers de mogelijkheid geeft om gezichten in een video te verwisselen met een ander gezicht dat is verkregen uit een andere foto of video - vergelijkbaar met de "gezichtswissel" -functie van Snapchat. Het is een alledaagse versie van het soort hightech computergegenereerde beelden (CGI) die we in de films zien.

Je herkent het misschien van de cameo van een jonge prinses Leia in de Star Wars-film uit 2016 Rogue One , die het lichaam van een andere acteur en beelden van de eerste Star Wars-film gebruikte die 39 jaar eerder was gemaakt.

Nutsvoorzieningen, iedereen met een krachtige computer, een grafische verwerkingseenheid (GPU) en tijd over om realistische nepvideo's te maken - bekend als "deepfakes" - met behulp van kunstmatige intelligentie (AI).

Klinkt leuk, Rechtsaf?

Het probleem is dat dezelfde tools toegankelijk zijn voor diegenen die pornografie zonder wederzijds goedvinden van vrienden willen maken, collega's, klasgenoten, ex-partners en volslagen vreemden – en post het online.

De evolutie van deepfakes

In december 2017, Motherboard brak het verhaal van een Reddit-gebruiker die bekend staat als "deep fakes", die AI gebruikte om de gezichten van acteurs in pornografische video's te verwisselen met de gezichten van bekende beroemdheden. Een andere Reddit-gebruiker maakte vervolgens de desktoptoepassing met de naam FakeApp.

Hiermee kan iedereen - zelfs mensen zonder technische vaardigheden - hun eigen nepvideo's maken met behulp van Google's TensorFlow open source machine learning-framework.

De technologie maakt gebruik van een AI-methode die bekend staat als "deep learning", waarbij computergegevens worden ingevoerd die de computer vervolgens gebruikt om beslissingen te nemen. In het geval van nepporno, de computer beoordeelt welke gezichtsafbeeldingen van een persoon het meest overtuigend zijn als gezichtswissel in een pornografische video.

Bekend als "morph" porno, of "parasiet porno", nep-seksvideo's of -foto's zijn geen nieuw fenomeen. Maar wat deepfakes tot een nieuw en zorgwekkend probleem maakt, is dat door AI gegenereerde pornografie er aanzienlijk overtuigender en echter uitziet.

Een andere vorm van op afbeeldingen gebaseerd seksueel misbruik

Creëren, het verspreiden of dreigen te verspreiden van neppornografie zonder de toestemming van de persoon wiens gezicht in de video verschijnt, is een vorm van "op afbeeldingen gebaseerd seksueel misbruik" (IBSA). Ook bekend als "porno zonder wederzijds goedvinden" of "wraakporno", het is een inbreuk op de privacy en een schending van het recht op waardigheid, seksuele autonomie en vrijheid van meningsuiting.

In één geval van morph-porno, de foto's van een Australische vrouw werden gestolen van haar sociale media-accounts, gesuperponeerd op pornografische afbeeldingen en vervolgens op meerdere websites geplaatst. Ze beschreef de ervaring als waardoor ze zich "lichamelijk ziek, walgen, boos, gedegradeerd, ontmenselijkt."

Toch blijven de reacties op dit soort seksueel misbruik inconsistent. Regelgeving ontbreekt in Australië, en elders.

Het gezicht van Donald Trump wordt verwisseld op het lichaam van Alec Baldwin terwijl hij zijn Donald Trump-indruk maakt.

Beroep onder het Australische strafrecht

Zuid Australië, NSW, Victoria en de ACT kennen specifieke strafbare feiten voor op afbeeldingen gebaseerd seksueel misbruik met straffen tot vier jaar gevangenisstraf. Zuid Australië, NSW en de ACT definiëren een "intieme" of "invasieve" afbeelding expliciet als afbeeldingen die zijn gewijzigd of gemanipuleerd.

Rechtsgebieden zonder specifieke strafbare feiten kunnen beroep doen op meer algemene strafwetten. Bijvoorbeeld, het federale telecommunicatiedelict van "het gebruik van een koetsdienst om te bedreigen, lastig vallen of beledigen", of staats- en territoriummisdrijven zoals onwettig filmen, onfatsoenlijkheid, stalken, voyeurisme of chantage.

Maar het is onduidelijk of dergelijke wetten van toepassing zijn op gevallen van "nepporno", wat betekent dat momenteel het strafrecht biedt inconsistente bescherming voor op afbeeldingen gebaseerde slachtoffers van seksueel misbruik in heel Australië.

Beroep onder Australisch burgerlijk recht

Slachtoffers kunnen weinig beroep doen op het auteursrecht, tenzij ze kunnen bewijzen dat ze de eigenaar van de afbeelding zijn. Het is onduidelijk of dat de eigenaar van de gezichtsafbeelding of de eigenaar van de originele video is. Ze hebben misschien meer geluk onder de lasterwet. Hier moet de eiser bewijzen dat de gedaagde vals en minachtend materiaal heeft gepubliceerd dat hen identificeert.

Pursuing civil litigation, echter, is time-consuming and costly. It will do little to stop the spread of non-consensual nude or sexual images on the internet. Ook, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.

Addressing the gap in legislation

The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.

Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.

belangrijk, the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.

Prevention and response beyond the law

While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Echter, op het moment van schrijven, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.

Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical

A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.

Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. Dan, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.

To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.