Wetenschap
Krediet:Universiteit van Waterloo
Een nieuwe tool voor kunstmatige intelligentie (AI) kan sociale-medianetwerken en nieuwsorganisaties helpen valse verhalen te verwijderen.
Het gereedschap, ontwikkeld door onderzoekers van de Universiteit van Waterloo, maakt gebruik van diepgaande AI-algoritmen om te bepalen of beweringen in berichten of verhalen worden ondersteund door andere berichten en verhalen over hetzelfde onderwerp.
"Als zij zijn, groot, het is waarschijnlijk een echt verhaal, " zei Alexander Wong, een professor in systeemontwerptechniek bij Waterloo. "Maar als het meeste andere materiaal niet ondersteunend is, het is een sterke aanwijzing dat je te maken hebt met nepnieuws."
Onderzoekers werden gemotiveerd om de tool te ontwikkelen door de verspreiding van online berichten en nieuwsverhalen die zijn gefabriceerd om lezers te misleiden of te misleiden, meestal voor politiek of economisch gewin.
Hun systeem bevordert de voortdurende inspanningen om volledig geautomatiseerde technologie te ontwikkelen die nepnieuws kan detecteren door een nauwkeurigheid van 90 procent te bereiken op een belangrijk onderzoeksgebied dat bekend staat als houdingsdetectie.
Gezien een claim in één bericht of verhaal en andere berichten en verhalen over hetzelfde onderwerp die ter vergelijking zijn verzameld, het systeem kan negen van de tien keer correct bepalen of ze het ondersteunen of niet.
Dat is een nieuwe maatstaf voor nauwkeurigheid door onderzoekers die een grote dataset gebruiken die is gemaakt voor een wetenschappelijke wedstrijd uit 2017, de Fake News Challenge.
Terwijl wetenschappers over de hele wereld blijven werken aan een volledig geautomatiseerd systeem, de Waterloo-technologie zou kunnen worden gebruikt als screeningsinstrument door menselijke fact-checkers bij sociale media en nieuwsorganisaties.
"Het vergroot hun mogelijkheden en markeert informatie die er niet helemaal goed uitziet voor verificatie, " zei Wong, een van de oprichters van het Waterloo Artificial Intelligence Institute. "Het is niet ontworpen om mensen te vervangen, maar om hen te helpen de feiten sneller en betrouwbaarder te controleren."
AI-algoritmen in het hart van het systeem kregen tienduizenden claims te zien in combinatie met verhalen die ze wel of niet ondersteunden. Overuren, het systeem leerde zelf ondersteuning of niet-ondersteuning te bepalen wanneer nieuwe claim-verhaalparen werden getoond.
"We moeten journalisten in staat stellen de waarheid te ontdekken en ons op de hoogte te houden, " zei Chris Dulhanty, een afgestudeerde student die het project leidde. "Dit vertegenwoordigt één poging in een groter oeuvre om de verspreiding van desinformatie tegen te gaan."
Een paper over hun werk, "Een standpunt innemen over nepnieuws:op weg naar automatische desinformatiebeoordeling via diepe bidirectionele transformatortaalmodellen voor houdingsdetectie, " werd deze maand gepresenteerd op de conferentie over neurale informatieverwerkingssystemen in Vancouver.
Wetenschap © https://nl.scienceaq.com