Wetenschap
Op deze 16 mei 2012, bestand foto, het Facebook-logo wordt weergegeven op een iPad in Philadelphia. Facebook gelooft dat zijn politiesysteem beter is in het uitbannen van grafisch geweld, gratuite naaktheid en terroristische propaganda van zijn sociale netwerk dan het verwijderen van racistische, seksistische en andere hatelijke opmerkingen. De zelfevaluatie op dinsdag, 15 mei 2018, kwam drie weken nadat Facebook probeerde een duidelijkere uitleg te geven over het soort berichten dat het niet tolereert. (AP Foto/Matt Rourke, Bestand)
Racistisch wegwerken, seksistische en andere hatelijke opmerkingen op Facebook is een grotere uitdaging dan het verwijderen van andere soorten onaanvaardbare berichten, omdat computerprogramma's nog steeds struikelen over de nuances van menselijke taal, maakte het bedrijf dinsdag bekend.
Facebook heeft ook statistieken vrijgegeven die kwantificeren hoe alomtegenwoordig nepaccounts zijn geworden op zijn invloedrijke service, ondanks een al lang bestaand beleid dat mensen verplicht om accounts aan te maken onder hun echte identiteit.
Alleen al van oktober tot december, Facebook heeft bijna 1,3 miljard accounts uitgeschakeld - en dat telt niet eens alle keren mee dat het bedrijf nepprofielen blokkeerde voordat ze konden worden ingesteld.
Als het bedrijf niet al die nepaccounts had afgesloten, het publiek van maandelijkse gebruikers zou zijn gegroeid tot boven de huidige 2,2 miljard en waarschijnlijk meer potentieel aanstootgevend materiaal hebben gecreëerd voor Facebook om te verwijderen.
Uit de zelfevaluatie van Facebook bleek dat het screeningsysteem veel beter is in het uitbannen van grafisch geweld, gratuite naaktheid en terroristische propaganda. Geautomatiseerde tools detecteerden 86 procent tot 99,5 procent van de schendingen die Facebook in die categorieën identificeerde.
Voor haatzaaien, De menselijke recensenten en computeralgoritmen van Facebook identificeerden slechts 38 procent van de schendingen. De rest kwam nadat Facebook-gebruikers de aanstootgevende inhoud hadden gemarkeerd voor beoordeling.
Alles verteld, Facebook ondernam actie tegen bijna 1,6 miljard stukjes inhoud tijdens de zes maanden die eindigden in maart, een klein deel van alle activiteit op zijn sociale netwerk, volgens het bedrijf.
Het rapport markeerde de eerste analyse van Facebook over hoeveel materiaal het verwijdert wegens schending van zijn beleid. Het heeft niet bekendgemaakt hoe lang het duurt voordat Facebook materiaal verwijdert dat in strijd is met de normen. Het rapport dekt ook niet hoeveel ongepaste inhoud Facebook heeft gemist.
"Zelfs als ze 100 miljoen berichten verwijderen die beledigend zijn, er zullen er een of twee zijn die echt slechte dingen hebben en dat zullen degenen zijn waar iedereen het uiteindelijk over heeft op het kabel-tv-nieuws, " zei Timothy Carone, die lesgeeft over technologie aan de Universiteit van Notre Dame.
In plaats van te proberen vast te stellen hoeveel aanstootgevend materiaal het niet ving, Facebook heeft een schatting gegeven van hoe vaak het denkt dat gebruikers berichten hebben gezien die in strijd zijn met de normen, inclusief inhoud die het screeningsysteem niet heeft gedetecteerd. Bijvoorbeeld, het bedrijf schatte dat voor elke 10, 000 keer dat mensen naar inhoud op zijn sociale netwerk keken, 22 tot 27 van de weergaven bevatten mogelijk berichten met ongeoorloofd grafisch geweld.
Het rapport gaat ook niet in op hoe Facebook een ander vervelend probleem aanpakt:de verspreiding van nepnieuwsverhalen die zijn geplant door Russische agenten en andere fabrikanten die proberen de verkiezingen en de publieke opinie te beïnvloeden.
Nep-accounts op Facebook trekken meer aandacht omdat Russische agenten ze gebruikten om advertenties te kopen om de verkiezingen van 2016 in de VS te beïnvloeden.
Hoewel het zich heeft gericht op het afsluiten van nepaccounts, Facebook heeft gezegd dat 3 tot 4 procent van zijn actieve maandelijkse gebruikers nep is. Dat betekent dat maar liefst 88 miljoen nep-Facebook-accounts tot maart nog steeds door de kieren in het politiesysteem van het bedrijf glipten.
Het is niet verwonderlijk dat de geautomatiseerde programma's van Facebook de grootste moeite hebben om verschillen te ontdekken tussen toelaatbare meningen en verachtelijke taal die de grens overschrijdt, zei Carone.
"Het is alsof je probeert het equivalent te vinden tussen het schreeuwen van 'Fire!' in een druk theater wanneer er geen is en het equivalent van iets zeggen dat ongemakkelijk is maar kwalificeert als vrijheid van meningsuiting, " hij zei.
Facebook zei dat het in de eerste drie maanden van dit jaar 2,5 miljoen stukjes inhoud verwijderde die als onaanvaardbare haatzaaiende uitlatingen werden beschouwd. een stijging van 1,6 miljoen in het voorgaande kwartaal. Het bedrijf schreef betere detectie toe, zelfs als het zei dat computerprogramma's moeite hebben met het begrijpen van de context en de toon van de taal.
Facebook heeft in de eerste drie maanden van dit jaar 3,4 miljoen stukjes grafisch geweld verwijderd, bijna het drievoudige van de 1,2 miljoen in de afgelopen drie maanden. In dit geval, betere detectie was slechts een deel van de reden. Facebook zei dat gebruikers agressiever beelden plaatsten van geweld in plaatsen zoals het door oorlog verscheurde Syrië.
De verhoogde transparantie komt als het Menlo Park, Californië, bedrijf probeert een privacyschandaal goed te maken dat was veroorzaakt door een los beleid waardoor een dataminingbedrijf met banden met de campagne van president Donald Trump in 2016 persoonlijke informatie van maar liefst 87 miljoen gebruikers kon verzamelen. De inhoudsscreening heeft niets te maken met privacybescherming, Hoewel, en is gericht op het handhaven van een gezinsvriendelijke sfeer voor gebruikers en adverteerders.
© 2018 The Associated Press. Alle rechten voorbehouden.
Wetenschap © https://nl.scienceaq.com