Wetenschap
Uit een nieuw onderzoek van de Universiteit van Californië, Berkeley, is gebleken dat deepfakes in spraak mensen vaak voor de gek kunnen houden, zelfs nadat ze zijn getraind in het detecteren ervan.
In het onderzoek, dat werd gepubliceerd in het tijdschrift _PLoS One_, werd aan 33 mensen gevraagd te luisteren naar een reeks deepfakes van spraak en echte opnames. Vervolgens werd de deelnemers gevraagd aan te geven in hoeverre ze er zeker van waren dat elke opname echt of nep was.
Uit de resultaten bleek dat de deelnemers ongeveer 50% van de tijd voor de gek werden gehouden door de deepfakes in spraak, zelfs nadat ze waren getraind in het detecteren ervan. Dit suggereert dat deepfakes in spraak steeds geavanceerder en moeilijker te detecteren worden.
De auteurs van het onderzoek zeggen dat hun bevindingen implicaties hebben voor het gebruik van deepfakes in spraak in de echte wereld. Ze waarschuwen dat deepfakes in spraak kunnen worden gebruikt om desinformatie te verspreiden, zich voor te doen als anderen of fraude te plegen.
"Onze bevindingen suggereren dat we voorzichtiger moeten zijn met het geloven van wat we horen", zegt co-auteur Dan Goldstein. "Deepfakes van spraak worden steeds realistischer en moeilijker te detecteren."
De auteurs van het onderzoek raden mensen aan de volgende stappen te ondernemen om zichzelf te beschermen tegen deepfakes in spraak:
* Houd er rekening mee dat er deepfakes voor spraak bestaan en wees sceptisch over audio-opnamen die u tegenkomt.
* Besteed aandacht aan de visuele aanwijzingen in een opname. Als de mond van de persoon niet synchroon beweegt met de woorden die hij of zij zegt, kan er sprake zijn van deepfake.
* Luister naar vreemde of onnatuurlijke geluiden in een opname. Deepfakes hebben vaak een elektronisch of robotachtig geluid.
* Als u niet zeker weet of een opname echt of nep is, probeer dan andere informatiebronnen te vinden om deze te verifiëren.
De auteurs van het onderzoek zeggen dat deze stappen mensen kunnen helpen zichzelf te beschermen tegen deepfakes van spraak, maar ze erkennen ook dat deepfakes van spraak een serieus probleem zijn dat een gezamenlijke inspanning vereist om aan te pakken.
“We moeten doorgaan met het onderzoeken van deepfakes in spraak en nieuwe manieren ontwikkelen om deze te detecteren”, aldus Goldstein. "We moeten ook het bewustzijn vergroten van de gevaren van deepfakes in spraak en mensen voorlichten over hoe ze zichzelf kunnen beschermen."
Wetenschap © https://nl.scienceaq.com