Wetenschap
Deze combinatie van afbeeldingen toont logo's voor bedrijven van links, Twitter, YouTube en Facebook. Deze internetbedrijven en anderen zeggen dat ze werken aan het verwijderen van videobeelden die zijn gefilmd door een schutter tijdens de schietpartij in een moskee in Nieuw-Zeeland, die uren na de gruwelijke aanval algemeen beschikbaar was op sociale media. (AP-foto's/bestand)
Waarom zond Facebook een live video uit van de 17 minuten durende schietpartij in de Nieuw-Zeelandse moskee? Heeft niemand het bedrijf gewaarschuwd terwijl het gebeurde?
Facebook zegt nee. Volgens zijn plaatsvervangend algemeen adviseur, Chris Sonderby, geen van de ongeveer 200 mensen die de livevideo hebben bekeken, heeft deze gemarkeerd voor moderators. In een blogpost van dinsdag, Sonderby zei dat het eerste gebruikersrapport pas 12 minuten na het einde van de uitzending kwam.
Dit roept allemaal aanvullende vragen op, waaronder waarom zoveel mensen toekeken zonder iets te zeggen, of Facebook te veel afhankelijk is van buitenstaanders en machines om problemen te melden, en of gebruikers en wetshandhavers zelfs weten hoe ze Facebook kunnen bereiken met zorgen over wat ze op de dienst zien.
"Als we dingen via onze telefoons zien, we stellen ons voor dat ze zijn als een tv-show, " zei Shiva Vaidhyanathan, een professor in mediastudies aan de Universiteit van Virginia. "Ze zijn op afstand, en we hebben geen macht."
Facebook zei dat het de video "binnen enkele minuten" na melding door de Nieuw-Zeelandse politie had verwijderd. Maar sindsdien, Facebook en andere socialemediabedrijven hebben te maken gehad met kopieën die door anderen zijn geplaatst.
De schietverdachte heeft zijn aanval zorgvuldig gemodelleerd voor een internettijdperk, terwijl hij de moord op 50 mensen live streamde in twee moskeeën in Christchurch, Nieuw-Zeeland.
Tim Cigelske, die doceert over sociale media aan de Marquette University in Milwaukee, zei dat terwijl kijkers dezelfde morele verplichtingen hebben om te helpen als een omstander in de fysieke wereld, mensen weten niet per se wat ze moeten doen.
"Het is alsof je 112 belt in een noodgeval, " zei hij. "We moesten mensen opleiden en het ze gemakkelijk maken. Je moet mensen op een nieuwe manier trainen als je een noodsituatie niet persoonlijk maar online ziet gebeuren."
Om live video te melden, een gebruiker moet weten om op een kleine set van drie grijze stippen aan de rechterkant van het bericht te klikken. Een gebruiker die op "live video melden" klikt, krijgt een keuze uit aanstootgevende inhoudstypen om uit te kiezen, inclusief geweld, pesten en intimidatie. Gebruikers wordt ook verteld om contact op te nemen met de politie als iemand in direct gevaar verkeert.
Facebook lijkt ook geen openbare informatie te plaatsen die wetshandhavers instrueert hoe gevaarlijke of criminele video's moeten worden gemeld. Het bedrijf heeft wel een pagina met de titel "informatie voor wetshandhavingsinstanties, " maar het schetst alleen procedures voor het doen van juridische verzoeken om gebruikersaccountrecords. Facebook reageerde niet onmiddellijk op een verzoek om commentaar en vragen over zijn communicatie met de politie.
Facebook gebruikt kunstmatige intelligentie om aanstootgevend materiaal te detecteren, terwijl het erop vertrouwt dat het publiek inhoud markeert die de normen schendt. Die rapporten worden vervolgens naar menselijke beoordelaars gestuurd, zei het bedrijf in een video van november.
De video schetste ook hoe het "computer vision" gebruikt om 97 procent van grafisch geweld te detecteren voordat iemand het meldt. Echter, het is minder duidelijk hoe deze systemen van toepassing zijn op de livestreaming van Facebook.
Experts zeggen dat live video unieke uitdagingen met zich meebrengt, en klachten over livestreaming van zelfmoorden, moorden en afranselingen komen regelmatig aan de orde. Niettemin, ze zeggen dat Facebook de verantwoordelijkheid niet kan afschuiven.
"Als ze de verantwoordelijkheid niet aankunnen, dan is het hun schuld dat ze die service blijven verlenen, " zei Mary Anne Franks, een professor in de rechten aan de Universiteit van Miami.
Een politieagent houdt de wacht voor de Masjid Al Noor-moskee in Christchurch, Nieuw-Zeeland, Zondag, 17 maart, 2019, waar een van de twee massale schietpartijen plaatsvond. De getroffen inwoners van Nieuw-Zeeland hebben zaterdag contact opgenomen met moslims in hun buurten en in het hele land, om vriendelijkheid te tonen aan een gemeenschap in pijn toen een 28-jarige blanke supremacist zwijgend voor een rechter stond, beschuldigd van massale schietpartijen op twee moskeeën waarbij tientallen mensen om het leven kwamen. (AP Foto/Vincent Yu)
Ze noemt het "ongelooflijk aanstootgevend en ongepast" om gebruikers verantwoordelijk te stellen voor traumatische videobeelden.
In sommige gevallen, het is in het begin niet duidelijk of een video of ander bericht in strijd is met de normen van Facebook, vooral op een dienst met een scala aan talen en culturele normen. Besluiteloosheid leek hier niet het geval te zijn, Hoewel. Facebook was er simpelweg niet op tijd van op de hoogte.
Facebook's Sonderby zei in de blogpost van dinsdag dat het bedrijf "beide schietpartijen bestempelde als terreuraanslagen, wat betekent dat elke lof, ondersteuning en representatie van de gebeurtenissen" zijn overtredingen.
Vaidhyanathan zei dat de live-videofunctie van Facebook is veranderd in een beest waar Facebook weinig aan kan doen, "behalve dan de schakelaar om te zetten". Hoewel Facebook meer moderators heeft ingehuurd om zijn machinedetectie en gebruikersrapporten aan te vullen, "je kunt niet genoeg mensen aannemen" om een dienst met 2,3 miljard gebruikers te controleren.
"Mensen zullen altijd nieuwe manieren vinden om haat te uiten en aan te zetten tot geweld, " hij zei.
De Nieuw-Zeelandse premier Jacinda Ardern uitte zijn frustratie dat de beelden vier dagen na het bloedbad online bleven.
Machines kunnen detecteren wanneer gebruikers verboden video's opnieuw proberen te posten door patronen te matchen, of digitale vingerafdrukken, in de bestanden. Maar gebruikers die vastbesloten zijn om deze controles te omzeilen, kunnen kleine wijzigingen aanbrengen, zoals het aanpassen van de kleur of de videosnelheid.
Het wereldwijde internetforum ter bestrijding van terrorisme, een groep van wereldwijde internetbedrijven onder leiding van Facebook, YouTube, Microsoft en Twitter, zei dat het 800 verschillende versies heeft geïdentificeerd en toegevoegd aan een gedeelde database die wordt gebruikt om afbeeldingen en video's van gewelddadige terroristen te blokkeren.
Sonderby zei dat sommige varianten moeilijk te detecteren zijn en dat Facebook is "uitgebreid naar extra detectiesystemen, waaronder het gebruik van audiotechnologie".
In een reeks tweets een dag na de schietpartij, Facebook's voormalige chief security officer, Alex Stamos, legde de uitdaging voor technologiebedrijven terwijl ze raceten om bij te blijven met nieuwe versies van de video.
"Wat je op de grote platforms ziet, is het water dat lekt rond duizenden vingers die in een dam zijn geprikt, " hij zei.
Stamos schat dat de grote technologiebedrijven het uploaden van meer dan 99 procent van de video's blokkeren. "wat niet genoeg is om het onmogelijk te vinden."
© 2019 The Associated Press. Alle rechten voorbehouden.
Wetenschap © https://nl.scienceaq.com