science >> Wetenschap >  >> Elektronica

Hoe kunstmatige intelligentie nepnieuws kan detecteren – en creëren

Is dat clickbait waar? Krediet:Crystal Eye Studio/Shutterstock.com

Toen Mark Zuckerberg het Congres vertelde dat Facebook kunstmatige intelligentie zou gebruiken om nepnieuws op de sociale-mediasite te detecteren, hij was niet bijzonder specifiek over wat dat betekende. Gezien mijn eigen werk met beeld- en videoanalyse, Ik stel voor dat het bedrijf voorzichtig moet zijn. Ondanks enkele fundamentele potentiële gebreken, AI kan een handig hulpmiddel zijn om online propaganda op te sporen, maar het kan ook verrassend goed zijn in het creëren van misleidend materiaal.

Onderzoekers weten al dat online nepnieuws zich veel sneller en breder verspreidt dan echt nieuws. Uit mijn onderzoek is op dezelfde manier gebleken dat online berichten met nep-medische informatie meer weergaven krijgen, opmerkingen en likes dan die met nauwkeurige medische inhoud. In een online wereld waar kijkers beperkte aandacht hebben en verzadigd zijn met contentkeuzes, het lijkt vaak alsof valse informatie aantrekkelijker of aantrekkelijker is voor kijkers.

Het probleem wordt erger:tegen 2022 mensen in ontwikkelde economieën zouden meer nepnieuws kunnen tegenkomen dan echte informatie. Dit zou een fenomeen kunnen veroorzaken dat onderzoekers "reality vertigo" hebben genoemd - waarbij computers zulke overtuigende inhoud kunnen genereren dat gewone mensen het misschien moeilijk hebben om erachter te komen wat waar is.

Valsheid detecteren

Machine learning-algoritmen, één type AI, zijn al tientallen jaren succesvol in het bestrijden van spam-e-mail, door de tekst van berichten te analyseren en te bepalen hoe waarschijnlijk het is dat een bepaald bericht een echte communicatie is van een echte persoon - of een massaal verspreid verzoek om farmaceutische producten of een claim van een lang verloren fortuin.

Voortbouwend op dit type tekstanalyse bij spambestrijding, AI-systemen kunnen evalueren hoe goed de tekst van een bericht, of een kop, vergelijkt met de daadwerkelijke inhoud van een artikel dat iemand online deelt. Een andere methode zou vergelijkbare artikelen kunnen onderzoeken om te zien of andere nieuwsmedia andere feiten hebben. Vergelijkbare systemen kunnen specifieke accounts en bronwebsites identificeren die nepnieuws verspreiden.

Een eindeloze cyclus

Echter, die methoden gaan ervan uit dat de mensen die nepnieuws verspreiden hun aanpak niet veranderen. Ze veranderen vaak van tactiek, het manipuleren van de inhoud van nepberichten om ze er authentieker uit te laten zien.

Het gebruik van AI om informatie te evalueren kan ook bepaalde vooroordelen in de samenleving blootleggen en versterken. Dit kan te maken hebben met geslacht, raciale achtergrond of stereotypen in de buurt. Het kan zelfs politieke gevolgen hebben, mogelijk beperkende uiting van bepaalde standpunten. Bijvoorbeeld, YouTube heeft advertenties van bepaalde soorten videokanalen afgesneden, kost hun makers geld.

Dit lijkt er zeker op dat Barack Obama sommige dingen zegt die hij waarschijnlijk nooit zou zeggen.

Context is ook de sleutel. De betekenis van woorden kan in de loop van de tijd veranderen. En hetzelfde woord kan verschillende dingen betekenen op liberale en conservatieve sites. Bijvoorbeeld, een bericht met de termen "WikiLeaks" en "DNC" op een meer liberale site zou eerder nieuws kunnen zijn, terwijl het op een conservatieve site zou kunnen verwijzen naar een bepaalde reeks samenzweringstheorieën.

AI gebruiken om nepnieuws te maken

De grootste uitdaging, echter, van het gebruik van AI om nepnieuws te detecteren, is dat het technologie in een wapenwedloop met zichzelf plaatst. Machine learning-systemen blijken al griezelig in staat te zijn om zogenaamde "deepfakes" te maken:foto's en video's die op realistische wijze het gezicht van de ene door een andere vervangen, om het te laten lijken, bijvoorbeeld, een beroemdheid werd gefotografeerd in een onthullende pose of een publieke figuur zegt dingen die hij eigenlijk nooit zou zeggen. Zelfs smartphone-apps zijn in staat tot dit soort vervanging - waardoor deze technologie voor vrijwel iedereen beschikbaar is, zelfs zonder videobewerkingsvaardigheden op Hollywood-niveau.

Onderzoekers bereiden zich al voor om AI te gebruiken om deze door AI gecreëerde vervalsingen te identificeren. Bijvoorbeeld, technieken voor videovergroting kunnen veranderingen in de menselijke hartslag detecteren die zouden kunnen vaststellen of een persoon in een video echt is of door een computer is gegenereerd. Maar zowel fakers als nepdetectoren zullen beter worden. Sommige vervalsingen kunnen zo geavanceerd worden dat ze heel moeilijk te weerleggen of af te wijzen zijn – in tegenstelling tot eerdere generaties vervalsingen, die eenvoudige taal gebruikte en gemakkelijk weerlegde beweringen deed.

Menselijke intelligentie is de echte sleutel

De beste manier om de verspreiding van nepnieuws tegen te gaan, is misschien afhankelijk te zijn van mensen. De maatschappelijke gevolgen van nepnieuws – grotere politieke polarisatie, toegenomen partijdigheid, en het aangetaste vertrouwen in de reguliere media en de overheid – zijn aanzienlijk. Als meer mensen wisten dat de inzet zo hoog was, ze zijn misschien meer op hun hoede voor informatie, vooral als het meer emotioneel gebaseerd is, omdat dat een effectieve manier is om de aandacht van mensen te trekken.

Wanneer iemand een woedende post ziet, die persoon zou er beter aan doen de informatie te onderzoeken, in plaats van het meteen te delen. De handeling van het delen verleent ook geloofwaardigheid aan een bericht:wanneer andere mensen het zien, ze registreren dat het is gedeeld door iemand die ze kennen en vermoedelijk op zijn minst een beetje vertrouwen, en zullen minder snel opmerken of de oorspronkelijke bron twijfelachtig is.

Social-mediasites zoals YouTube en Facebook kunnen vrijwillig besluiten om hun inhoud te labelen, duidelijk te zien of een item dat beweert nieuws te zijn, is geverifieerd door een betrouwbare bron. Zuckerberg vertelde het Congres dat hij de "gemeenschap" van Facebook-gebruikers wil mobiliseren om de algoritmen van zijn bedrijf te sturen. Facebook zou verificatie-inspanningen kunnen crowdsourcen. Wikipedia biedt ook een model, van toegewijde vrijwilligers die informatie volgen en verifiëren.

Facebook zou zijn partnerschappen met nieuwsorganisaties en vrijwilligers kunnen gebruiken om AI te trainen, het systeem voortdurend aanpassen om te reageren op veranderingen in onderwerpen en tactieken van propagandisten. Dit zal niet elk nieuwsbericht dat online wordt geplaatst, opvangen, maar het zou het voor grote aantallen mensen gemakkelijker maken om feiten van nep te onderscheiden. Dat zou de kans kunnen verkleinen dat fictieve en misleidende verhalen online populair zouden worden.

geruststellend, mensen die enige blootstelling hebben aan accuraat nieuws zijn beter in het onderscheiden tussen echte en nep-informatie. De sleutel is om ervoor te zorgen dat ten minste een deel van wat mensen online zien, in feite, waar.

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.