Wetenschap
Krediet:Pixabay/CC0 publiek domein
Sociale media vormen een belangrijk kanaal voor de verspreiding van nepnieuws en desinformatie. Deze situatie is verergerd door recente ontwikkelingen op het gebied van foto- en videobewerking en kunstmatige-intelligentietools, die het gemakkelijk maken om met audiovisuele bestanden te knoeien, bijvoorbeeld met zogenaamde deepfakes, die afbeeldingen, audio- en videoclips combineren en over elkaar heen leggen om montages te maken die eruit zien als echte beelden.
Onderzoekers van de K-riptography and Information Security for Open Networks (KISON) en de Communication Networks &Social Change (CNSC) groepen van het Internet Interdisciplinair Instituut (IN3) aan de Universitat Oberta de Catalunya (UOC) hebben een nieuw project gelanceerd om innovatieve technologie die, met behulp van kunstmatige intelligentie en technieken voor het verbergen van gegevens, gebruikers zou moeten helpen om automatisch onderscheid te maken tussen originele en vervalste multimedia-inhoud, en zo bij te dragen aan het minimaliseren van het opnieuw plaatsen van nepnieuws. DISSIMILAR is een internationaal initiatief onder leiding van het UOC met onder meer onderzoekers van de Technische Universiteit van Warschau (Polen) en de Universiteit van Okayama (Japan).
"Het project heeft twee doelstellingen:ten eerste, makers van inhoud voorzien van tools om hun creaties van een watermerk te voorzien, waardoor elke wijziging gemakkelijk detecteerbaar wordt; en ten tweede, om gebruikers van sociale media tools aan te bieden op basis van de nieuwste generatie signaalverwerking en machinale leermethoden om valse digitale inhoud", aldus professor David Megías, hoofdonderzoeker van KISON en directeur van IN3. Bovendien wil DISSIMILAR "de culturele dimensie en het standpunt van de eindgebruiker in het hele project opnemen", van het ontwerpen van de tools tot de studie van bruikbaarheid in de verschillende fasen.
Het gevaar van vooroordelen
Momenteel zijn er in principe twee soorten tools om nepnieuws te detecteren. Ten eerste zijn er automatische op basis van machine learning, waarvan (momenteel) slechts enkele prototypes bestaan. En ten tweede zijn er de nepnieuwsdetectieplatforms met menselijke betrokkenheid, zoals het geval is met Facebook en Twitter, die de deelname van mensen vereisen om vast te stellen of specifieke inhoud echt of nep is. Volgens David Megías kan deze gecentraliseerde oplossing worden beïnvloed door "verschillende vooroordelen" en censuur aanmoedigen. "Wij zijn van mening dat een objectieve beoordeling op basis van technologische hulpmiddelen een betere optie zou kunnen zijn, op voorwaarde dat gebruikers het laatste woord hebben om op basis van een pre-evaluatie te beslissen of ze bepaalde inhoud kunnen vertrouwen of niet," legde hij uit.
Voor Megías is er geen "single silver bullet" die nepnieuws kan detecteren:de detectie moet eerder worden uitgevoerd met een combinatie van verschillende tools. "Daarom hebben we ervoor gekozen om het verbergen van informatie (watermerken), forensische analysetechnieken voor digitale inhoud (voor een groot deel op basis van signaalverwerking) en, vanzelfsprekend, machine learning te onderzoeken", merkte hij op.
Automatisch multimediabestanden verifiëren
Digitaal watermerken omvat een reeks technieken op het gebied van het verbergen van gegevens die onmerkbare informatie in het originele bestand inbedden om een multimediabestand "gemakkelijk en automatisch" te kunnen verifiëren. "Het kan worden gebruikt om de legitimiteit van een inhoud aan te geven door bijvoorbeeld te bevestigen dat een video of foto is verspreid door een officieel persbureau, en kan ook worden gebruikt als een authenticatieteken, dat zou worden verwijderd in het geval van wijziging van de inhoud, of om de oorsprong van de gegevens te achterhalen. Met andere woorden, het kan zien of de bron van de informatie (bijvoorbeeld een Twitter-account) valse inhoud verspreidt", legt Megías uit.
Technieken voor forensische analyse van digitale inhoud
Het project zal de ontwikkeling van watermerken combineren met de toepassing van forensische analysetechnieken voor digitale inhoud. Het doel is om signaalverwerkingstechnologie te gebruiken om de intrinsieke vervormingen te detecteren die worden geproduceerd door de apparaten en programma's die worden gebruikt bij het maken of wijzigen van een audiovisueel bestand. Deze processen leiden tot een reeks veranderingen, zoals sensorruis of optische vervorming, die kunnen worden gedetecteerd door middel van machine learning-modellen. "Het idee is dat de combinatie van al deze tools de resultaten verbetert in vergelijking met het gebruik van afzonderlijke oplossingen", aldus Megías.
Studies met gebruikers in Catalonië, Polen en Japan
Een van de belangrijkste kenmerken van DISSIMILAR is de 'holistische' benadering en het verzamelen van de 'percepties en culturele componenten rond nepnieuws'. Met dit in het achterhoofd zullen verschillende gebruikersgerichte onderzoeken worden uitgevoerd, opgesplitst in verschillende fasen. "Ten eerste willen we weten hoe gebruikers omgaan met het nieuws, wat hen interesseert, welke media ze consumeren, afhankelijk van hun interesses, wat ze gebruiken als basis om bepaalde inhoud als nepnieuws te identificeren en wat ze bereid zijn te doen om controleer de waarheidsgetrouwheid ervan. Als we deze dingen kunnen identificeren, zal het de technologische hulpmiddelen die we ontwerpen gemakkelijker maken om de verspreiding van nepnieuws te helpen voorkomen", legt Megías uit.
Deze percepties zullen worden gepeild op verschillende plaatsen en culturele contexten, in gebruikersgroepstudies in Catalonië, Polen en Japan, om hun eigenaardigheden te integreren bij het ontwerpen van de oplossingen. "Dit is belangrijk omdat elk land bijvoorbeeld regeringen en/of overheidsinstanties heeft met meer of mindere mate van geloofwaardigheid. Dit heeft impact op hoe nieuws wordt gevolgd en steun voor nepnieuws:als ik niet in het woord geloof van de autoriteiten, waarom zou ik aandacht besteden aan het nieuws dat uit deze bronnen komt?Dit was te zien tijdens de COVID-19-crisis:in landen waar het vertrouwen in de overheid minder was, was er minder respect voor suggesties en regels over de aanpak van de pandemie en vaccinatie", zegt Andrea Rosales, een CNSC-onderzoeker.
Een product dat gemakkelijk te gebruiken en te begrijpen is
In fase twee zullen gebruikers deelnemen aan het ontwerpen van de tool om "ervoor te zorgen dat het product goed wordt ontvangen, gemakkelijk te gebruiken en begrijpelijk is", aldus Andrea Rosales. "We willen graag dat ze gedurende het hele proces bij ons worden betrokken totdat het definitieve prototype is geproduceerd, omdat dit ons zal helpen beter in te spelen op hun behoeften en prioriteiten en te doen wat andere oplossingen niet hebben kunnen doen," David Megías toegevoegd.
Deze gebruikersacceptatie zou in de toekomst een factor kunnen zijn die sociale netwerkplatforms ertoe brengt de in dit project ontwikkelde oplossingen op te nemen. "Als onze experimenten vruchten afwerpen, zou het geweldig zijn als ze deze technologieën zouden integreren. Voorlopig zouden we blij zijn met een werkend prototype en een proof of concept dat sociale mediaplatforms zou kunnen aanmoedigen om deze technologieën in de toekomst op te nemen, " concludeerde David Megías.
Eerder onderzoek is gepubliceerd in de Special Issue on the ARES-Workshops 2021 .
Wetenschap © https://nl.scienceaq.com