science >> Wetenschap >  >> Elektronica

De risico's van deepfakes evalueren

Een paar weken geleden, De Franse liefdadigheidsinstelling Solidarité Sida veroorzaakte een sensatie toen het een nep-maar zeer realistische video publiceerde van Donald Trump die aankondigde dat "AIDS voorbij is" als onderdeel van een bewustmakingscampagne. De video in kwestie is een zogenaamde deepfake, een techniek waarbij machine learning wordt gebruikt om steeds realistischere afbeeldingen en video's te maken, evenals audio- en tekstbestanden.

Dit gebruik van een deepfake-video door een liefdadigheidsinstelling benadrukt de groeiende prevalentie van dit fenomeen. Hoewel pornografie momenteel verantwoordelijk is voor de overgrote meerderheid van deepfake-video's, de techniek kan ook worden gebruikt om te frauderen, belasteren, om nepnieuws te verspreiden of iemands identiteit te stelen.

Evoluerende bedreigingen

In september, EPFL's International Risk Governance Centre (IRGC) bracht ongeveer 30 experts samen voor een interdisciplinair seminar om dit snel evoluerende fenomeen en de groeiende prevalentie ervan te bespreken. De IRGC heeft vandaag een rapport gepubliceerd met waardevolle inzichten in de risico's van deepfakes.

De hoofdconclusie is dat deze risico's mogelijk wijdverbreide schade kunnen veroorzaken op veel terreinen van het leven. "Elke bedrijfsorganisatie of activiteit die vertrouwt op bewijsstukken is potentieel kwetsbaar, " zegt Aengus Collins, de auteur van het rapport en de adjunct-directeur van de IRGC. Deepfakes kunnen voor veel onzekerheid en verwarring zorgen. In een recent geval dieven gebruikten deepfaken van de stem van een chief executive om geld van een bedrijf te stelen. Op maatschappelijke schaal, een wildgroei aan gefabriceerde inhoud kan de waarheid ondermijnen en het vertrouwen van het publiek aantasten, de hoekstenen van het democratisch debat.

Het rapport biedt een raamwerk voor het categoriseren van deepfake-risico's. Het belicht drie belangrijke effecten:reputatieschade, fraude en afpersing, en de manipulatie van besluitvormingsprocessen - en merkt op dat deze effecten individueel kunnen worden gevoeld, institutioneel of in de hele samenleving.

Met zo'n breed scala aan potentiële schade door deepfakes, waar zijn maatregelen op het gebied van risicobeheer het meest nodig? De experts raden aan te focussen op de omvang en ernst van de mogelijke schade, evenals het vermogen van het "doelwit" om met de gevolgen om te gaan. Bijvoorbeeld, een goed uitgerust bedrijf met gevestigde processen zal de impact van een deepfake-aanval beter kunnen opvangen dan een particulier slachtoffer van intimidatie.

Onderling afhankelijke oplossingen

In het rapport, de IRGC bevat 15 aanbevelingen voor een verscheidenheid aan mogelijke reacties op deepfakes die de risico's die ze opleveren, kunnen verminderen. Het vraagt ​​ook om diepgaander onderzoek over de hele linie.

Een van de belangrijkste categorieën van aanbeveling is technologie, inclusief tools die de herkomst van digitale inhoud kunnen verifiëren of deepfakes kunnen detecteren. Bij EPFL, de Multimedia Signal Processing Group (MMSPG) en startup Quantum Integrity ontwikkelen momenteel een deepfake-detectieoplossing die in 2020 kan worden ingezet. er zullen kwetsbaarheden zijn die kunnen worden uitgebuit, " zegt Collins. "Maar het onderhouden en ontwikkelen van technologische reacties op deepfakes is cruciaal om de meeste misbruiken af ​​te schrikken."

Het rapport benadrukt ook de noodzaak van meer aandacht voor de juridische status van deepfakes, om te verduidelijken hoe wetten op gebieden als laster, intimidatie en auteursrecht zijn van toepassing op synthetische inhoud.

Algemener, digitale geletterdheid speelt een belangrijke rol. Maar Collins waarschuwt dat hier sprake is van een paradox:"Een van de doelen van digitale geletterdheid op dit gebied is om mensen aan te moedigen digitale inhoud niet zomaar te accepteren. Maar er moet ook een positieve focus zijn op zaken als bevestiging en de beoordeling van bronnen. mensen aanmoedigen om alles wat ze zien te wantrouwen, kan de problemen verergeren die verband houden met de erosie van waarheid en vertrouwen."

Bredere horizonten

Hoewel het IRGC-rapport zich richt op deepfake-risicobeheer, dit onderzoek maakt deel uit van een bredere werkstroom over de risico's van opkomende en convergerende technologieën, die in 2020 zal doorgaan. "We zijn momenteel aan het beslissen wat onze volgende focus zal zijn, ', zegt Collins. 'En aan kandidaten geen gebrek. We leven in een tijd waarin de relatie tussen technologie, risico en openbaar beleid is belangrijker dan ooit."