science >> Wetenschap >  >> Elektronica

Kan kunstmatige intelligentie een einde maken aan nepnieuws?

Kunstmatige intelligentie kan worden gebruikt om diepe vervalsingen te maken - audio, foto's en video's die mensen dingen laten zeggen en doen die ze nooit hebben gedaan. Krediet:PxHere

Nepnieuws heeft het wantrouwen jegens de media al aangewakkerd, politiek en gevestigde instellingen over de hele wereld. En hoewel nieuwe technologieën zoals kunstmatige intelligentie (AI) de zaken nog erger kunnen maken, het kan ook worden gebruikt om verkeerde informatie te bestrijden.

Wil je jezelf laten klinken als Obama? Vroeger, dat had misschien nodig om zijn stem fysiek te imiteren, party-trick stijl. En al was je er heel goed in, het zou vrijwel zeker geen gevaar vormen voor onze democratie. Maar de technologie heeft dat veranderd. U kunt nu eenvoudig en nauwkeurig iedereen iets laten zeggen via AI. Gebruik gewoon de dienst van een online programma om een ​​zin op te nemen en te luisteren naar wat je zei met de stem van een beroemd persoon.

Dergelijke programma's worden vaak deep fakes genoemd:AI-systemen die audio aanpassen, foto's en video's om mensen dingen te laten zeggen en doen die ze nooit hebben gedaan.

Deze technologieën kunnen een nieuw tijdperk van nepnieuws en online desinformatie inluiden. in 2017, Hany Farid, een computerwetenschapper aan het Dartmouth College, ONS, die nepvideo's detecteert, zei dat de snelle verspreiding van nieuwe manipulatietechnieken heeft geleid tot een 'wapenwedloop'. Stelt u zich eens voor hoe verkiezingen zullen zijn als we video en audio niet langer kunnen vertrouwen. Maar sommige onderzoekers vechten nu terug en tonen dat AI ook ten goede kan worden gebruikt.

"AI heeft veel ethische problemen, " zei Francesco Nucci, directeur toepassingen bij de Engineering Group, gevestigd in Italië. "Maar soms kan het ook de oplossing zijn. Je kunt AI op onethische manieren inzetten om bijvoorbeeld nepnieuws te maken en te verspreiden, maar je kunt het ook gebruiken om goed te doen, bijvoorbeeld, om desinformatie tegen te gaan."

Factcheckers

Hij is de hoofdonderzoeker van het Fandango-project, die precies dat wil doen. Het team bouwt softwaretools om journalisten en factcheckers te helpen nepnieuws op te sporen en te bestrijden. zegt Nucci. Ze hopen journalisten op drie manieren van dienst te kunnen zijn.

Het eerste onderdeel is wat Nucci content-onafhankelijke detectie noemt door gebruik te maken van tools die zich richten op de vorm van de content.

Nucci legt uit dat vandaag, afbeeldingen en video kunnen gemakkelijk worden gemanipuleerd, of het nu gaat om eenvoudige Photoshop of meer complexe technieken zoals diepe vervalsingen. Fandango's systemen kunnen die veranderingen reverse-engineeren, en gebruik algoritmen om journalisten te helpen gemanipuleerde inhoud te herkennen.

Aangezien deze tools naar de vorm kijken, ze controleren niet of de inhoud zelf valse beweringen doet, dat is wat Fandango's tweede onderzoekslijn doet. Hier koppelen ze verhalen waarvan is bewezen dat ze niet waar zijn door menselijke factcheckers, en zoek naar online pagina's of posts op sociale media met vergelijkbare woorden en beweringen.

"De tools kunnen zien welke nepnieuwsverhalen dezelfde oorsprong hebben en journalisten in staat stellen ze te onderzoeken, ' zei Nucci.

Beide componenten zijn sterk afhankelijk van verschillende AI-algoritmen, zoals de verwerking van natuurlijke taal. De derde component stelt journalisten in staat te reageren op nepnieuws.

Een nepverhaal zou kunnen, bijvoorbeeld, beweren dat een zeer hoog percentage van de misdaden in een Europees land worden gepleegd door buitenlandse immigranten. In theorie zou dat een gemakkelijke claim kunnen zijn om te weerleggen vanwege de grote hoeveelheid beschikbare open data, toch verspillen journalisten kostbare tijd aan het vinden van die gegevens.

Zo koppelt Fandango's tool allerlei Europese open databronnen aan elkaar, en bundelt en visualiseert het. Journalisten kunnen gebruik maken van bijvoorbeeld, nationale gegevens samengevoegd om beweringen over misdrijven aan te pakken of gegevens van de Europese Copernicus-satellieten toe te passen op debatten over klimaatverandering.

"Zo kunnen journalisten snel reageren op nepverhalen en geen tijd verspillen, ' zei Nucci.

Hun tools worden momenteel getest door de Belgische publieke omroep VRT, ANS, het belangrijkste Italiaanse persbureau, en CIVIO, een Spaanse non-profitorganisatie.

Detectie van nepnieuws

Toch is het ontdekken van nepnieuws niet alleen een kwestie van het vinden van onware beweringen, maar ook van het analyseren van enorme hoeveelheden patronen voor het delen van sociale media, zegt Michael Bronstein, professor aan de Universiteit van Lugano in Zwitserland en aan het Imperial College London, het VK.

Hij leidt een project genaamd GoodNews, die AI gebruikt om een ​​atypische benadering te volgen voor de detectie van nepnieuws.

"De meeste bestaande benaderingen kijken naar de inhoud, " zei prof. Bronstein. "Ze analyseren semantische kenmerken die kenmerkend zijn voor nepnieuws. Wat tot op zekere hoogte werkt, maar loopt tegen allerlei problemen aan.

"Er zijn, bijvoorbeeld, taal grenzen, platforms zoals WhatsApp geven u geen toegang tot de inhoud omdat deze versleuteld is en in veel gevallen kan nepnieuws een afbeelding zijn, wat moeilijker te analyseren is met technieken zoals natuurlijke taalverwerking."

Dus Prof. Bronstein en zijn team draaiden dit model op zijn kop, in plaats daarvan kijken naar hoe nepnieuws zich verspreidt.

Eigenlijk, eerdere studies tonen aan dat nepnieuwsverhalen online op andere manieren worden gedeeld dan echte nieuwsverhalen, zegt prof. Bronstein. Nepnieuws heeft mogelijk veel meer aandelen dan likes op Facebook, terwijl reguliere posts meer likes hebben dan shares. Door dit soort patronen te ontdekken, GoodNews koppelt een geloofwaardigheidsscore aan een nieuwsbericht.

Het team heeft hun eerste prototype gebouwd, die gebruikmaakt van op grafieken gebaseerde machine learning, een AI-techniek waarin prof. Bronstein expert is. Het prototype is getraind op gegevens van Twitter waar de onderzoekers verhalen traceren die door journalisten zijn gecontroleerd en onjuist blijken te zijn. Journalisten trainen op deze manier het AI-algoritme door te laten zien welke verhalen nep zijn, en welke niet.

Het GoodNews-team hoopt geld te verdienen met deze service via een start-up genaamd Fabula AI, gevestigd in Londen. Hoewel ze hopen het product aan het einde van het jaar uit te rollen, ze voorzien klanten te hebben zoals grote mediabedrijven zoals Facebook en Twitter, maar ook individuele gebruikers.

"Onze grotere visie is dat we een geloofwaardigheidsbeoordelingsbureau willen worden voor nieuws, op dezelfde manier waarop bepaalde bedrijven de consumentenkredietscore van een persoon beoordelen, " zei prof. Bronstein.

Oplossen

Dat laat natuurlijk een grotere vraag open:kan technologie nepnieuws echt oplossen? Beide onderzoekers zijn sceptisch, maar overtuigde technologie kan helpen. Nucci benadrukt dat het concept van nepnieuws wordt betwist, en dat verhalen vaak niet helemaal waar zijn, maar ook niet helemaal onwaar.

"Nepnieuws is geen wiskundige kwestie van algoritmen en gegevens, ' zei hij. 'Maar een zeer filosofische vraag hoe we met de waarheid omgaan. Desalniettemin kan onze technologie helpen om de transparantie rond valse claims en verkeerde informatie te verbeteren."

Prof. Bronstein zegt dat het naïef zou zijn om te verwachten dat technologie het probleem van nepnieuws oplost.

"Het gaat niet alleen om het opsporen van nepnieuws. Het is ook een probleem van vertrouwen en een gebrek aan kritisch denken. Mensen verliezen het vertrouwen in traditionele media en instellingen, en dat is niet iets dat alleen door technologie kan worden verholpen, " hij zei.

"Het vereist inspanningen van alle belanghebbenden, en hopelijk kan ons project een rol spelen in deze grotere inspanning."