science >> Wetenschap >  >> Elektronica

Facebook-algoritme verandert onderdrukte journalistiek en bemoeit zich met democratie

Wat vind je van Facebook? Krediet:fyv6561/Shutterstock.com

Het nieuwsfeed-algoritme van Facebook bepaalt wat gebruikers op zijn platform zien, van grappige memes tot opmerkingen van vrienden. Het bedrijf werkt dit algoritme regelmatig bij, die drastisch kan veranderen welke informatie mensen consumeren.

Nu de verkiezingen van 2020 naderen, er is veel publieke bezorgdheid dat wat bij de presidentsverkiezingen van 2016 "Russische bemoeienis" werd genoemd, opnieuw zou kunnen gebeuren. Maar wat niet genoeg aandacht krijgt, is de rol die de veranderingen in het algoritme van Facebook spelen, opzettelijk of niet, in dat soort bemoeienis.

Een belangrijk contrapunt van de Russische desinformatiecampagne was feitelijke journalistiek uit betrouwbare bronnen - die veel van hun lezers op Facebook en andere sociale-mediaplatforms bereikte. Als onderzoeker en docent op het gebied van sociale media, Ik zie bewijs dat veranderingen in het Facebook-nieuwsfeed-algoritme de toegang van gebruikers tot geloofwaardige journalistiek hebben onderdrukt in de aanloop naar de verkiezing van Trump.

Politieke agenten weten dat Facebook fungeert als poortwachter van de informatiediëten van meer dan 200 miljoen Amerikanen en 2 miljard gebruikers wereldwijd. Acties en misbruik door anderen op de platforms hebben geleid tot veel bezorgdheid en publieke discussie, inclusief over hoeveel desinformatie en propaganda Amerikanen vóór de verkiezingen hebben gezien. Waar nog niet genoeg over is gesproken, is het effect dat de algoritmische verschuivingen van Facebook hebben gehad op de toegang tot nieuws en democratie.

Het systeem wijzigen

Medio 2015 is Facebook introduceerde een grote algoritmeverandering die lezers weghaalde van journalistiek en nieuws, om meer updates van hun vrienden en familie te bezorgen. De verandering was geformuleerd in vriendelijke taal, wat suggereerde dat Facebook probeerde ervoor te zorgen dat gebruikers geen verhalen van vrienden zouden missen. Maar uit sociale-mediagegevens blijkt dat een van de effecten van de verandering was om het aantal interacties dat Facebook-gebruikers hadden met geloofwaardige journalistieke kanalen te verminderen.

Een paar maanden voor de verkiezingen van 2016, een nog grotere wijziging van het algoritme voor berichten van vrienden en familie eiste een tweede tol van het uitgeversverkeer. Een breed scala aan nieuwsuitgevers ontdekte dat hun inhoud aanzienlijk minder zichtbaar was voor Facebook-gebruikers.

De cijfers onderzoeken

In mijn onderzoek, Ik keek naar Facebook-engagement voor reguliere nieuwsuitzendingen rond de verkiezingen van 2016. Mijn bevindingen ondersteunen de conclusies van anderen dat het algoritme van Facebook de publieke betrokkenheid bij deze uitgevers sterk onderdrukte.

Gegevens van CrowdTangle, een bedrijf voor het monitoren van sociale media, blijkt dat Facebook-verkeer merkbaar daalde bij CNN, ABC, NBC, CBS, Fox nieuws, The New York Times en The Washington Post nadat het bedrijf in juni 2016 zijn algoritmen had bijgewerkt om vrienden en familie te bevoordelen.

Dat bewijst dat het algoritme werkte zoals het was ontworpen om te werken, maar ik ben bezorgd dat grote Amerikaanse uitgevers op deze manier werden onderdrukt. De belangstelling van kiezers voor de presidentsverkiezingen was in 2016 groter dan in de voorgaande twee decennia, en verkeerde informatie was wijdverbreid. De veranderingen van Facebook zorgden ervoor dat belangrijke nieuwsorganisaties in het hele politieke spectrum het moeilijker hadden om het nieuws over geloofwaardig verkiezingsnieuws en -rapportage te verspreiden.

Alarmbellen

Facebook was al voor de verkiezingen op de hoogte van zorgen over zijn algoritme. Een van de eigen ingenieurs van Facebook signaleerde deze mogelijke effecten van de algoritmewijzigingen van Facebook in juli 2015. Drie maanden later, Zuckerbergs mentor, Roger McNaam, probeerde ook Zuckerberg en Facebook-managers te waarschuwen dat het platform werd gebruikt om informatie over de verkiezingen te manipuleren.

Net na de verkiezingen, Uit het onderzoek van verslaggever Craig Silverman bij BuzzFeed bleek dat nep-verkiezingsnieuws beter presteerde dan 'echt nieuws'. Eind 2018, Facebook's eigen bedrijfsverklaring onthulde problemen met hoe het algoritme "borderline-inhoud" beloonde die sensationeel en provocerend was, zoals veel van het hyperpartijdige nieuws dat voor de verkiezingen populair was.

Uit recenter onderzoek door het Shorenstein Center van Harvard blijkt dat het Facebook-verkeer voor uitgevers aanzienlijk bleef dalen na een verdere wijziging van het Facebook-algoritme in januari 2018.

Prof. Grygiel pleit voor algoritmische transparantie over MSNBC.

Algoritmische transparantie

Daten, onderzoek naar hoe het algoritme van Facebook werkt, is beperkt door het gebrek aan toegang tot zijn eigen interne werking. Het is niet voldoende om de effecten van de wijzigingen in de nieuwsfeed van Facebook te onderzoeken. Ik denk dat het belangrijk is om te begrijpen waarom ze gebeurden, te, en directer nadenken over zakelijke beslissingen van Facebook en hoe deze de democratie beïnvloeden.

Recent inzicht in de interne processen van het bedrijf suggereert dat Facebook zijn kracht begint te begrijpen. In juli 2019, Bloomberg News onthulde dat het bedrijf software op zijn eigen platform had geïmplementeerd om te letten op berichten die Facebook zelf op potentieel misleidende manieren afschilderden, hun zichtbaarheid verminderen om de reputatie van het bedrijf te beschermen.

Sommige internationale rechtsgeleerden zijn begonnen te pleiten voor wetten om democratieën te beschermen tegen de mogelijkheid dat algoritmische manipulatie electoraal gewin zou kunnen opleveren. Er is geen bewijs dat de veranderingen van Facebook politieke bedoelingen hadden, maar het is niet moeilijk voor te stellen dat het bedrijf zijn algoritmen in de toekomst zou kunnen aanpassen, als het zou willen.

Om u tegen dat potentieel te beschermen, nieuwe wetten kunnen wijzigingen in het algoritme in de aanloop naar de verkiezingen in de weg staan. In de financiële sector, bijvoorbeeld, "stille perioden" voorafgaand aan belangrijke bedrijfsaankondigingen proberen te voorkomen dat marketing- en public-relations-inspanningen de aandelenkoersen kunstmatig beïnvloeden.

Vergelijkbare beschermingen voor algoritmen tegen bedrijfsmanipulatie kunnen ertoe bijdragen dat politiek actieve, macht zoekende Facebook-managers - of elk ander bedrijf met aanzienlijke controle over de toegang van gebruikers tot informatie - kunnen hun systemen niet gebruiken om de publieke opinie of stemgedrag vorm te geven.

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.