Wetenschap
Het verwijderen van illegale webpagina's is niet genoeg. Krediet:Thomas Holt/Shutterstock
YouTube heeft, nogmaals, niet in geslaagd om kinderen online te beschermen. Recente onderzoeken door Wired en videoblogger Matt Watson hebben beweerd dat pedofielen de commentaarsectie van de site gebruikten om roofzuchtige berichten achter te laten op video's die kinderen bevatten en uploaden, en om links naar materiaal over seksueel misbruik van kinderen te delen.
Als reactie op het onderzoek - en de dreiging van een adverteerdersboycot - heeft YouTube nu gezegd dat het reacties op video's met jonge kinderen zal uitschakelen. Maar helaas, dit is geen geïsoleerd incident. In januari 2019 werd beweerd dat de Bing-zoekmachine van Microsoft opdook en materiaal suggereerde dat seksueel misbruik van kinderen was. En dit soort incidenten zijn herhalingen van soortgelijke problemen die zich de afgelopen vijf jaar hebben voorgedaan.
De realiteit is dat internet een systemisch probleem heeft met materiaal over seksueel misbruik van kinderen dat niet beperkt is tot nichesites of het dark web, maar zich in het volle zicht verbergt tussen inhoud die wordt gehost en gecontroleerd door de technische giganten. We moeten meer doen om kinderen online te beschermen en deze actie moet verder gaan dan aanpassingen aan algoritmen of het uitschakelen van reacties.
in 2016, meer dan 57, 000 webpagina's met afbeeldingen van seksueel misbruik van kinderen werden gevolgd door de Internet Watch Foundation - een in het VK gevestigde instantie die dergelijke illegale inhoud identificeert en verwijdert. Dit was een stijging van 21% ten opzichte van het voorgaande jaar. Het in de VS gevestigde National Center for Missing and Exploited Children ontving in 2017 meer dan 10 miljoen meldingen van seksueel misbruik van kinderen, een stijging van 22% ten opzichte van de voorgaande 12 maanden. Het is waarschijnlijk dat deze initiatieven, terwijl het hard nodig was, identificeren en verwijderen slechts een klein deel van de inhoud die dagelijks online wordt verspreid.
Afbeeldingen van kindermishandeling die online worden geplaatst, hebben een ernstige impact op deze mishandelde kinderen gedurende jaren of decennia nadat de primaire fysieke mishandeling is beëindigd. Mishandelde kinderen zijn al slachtoffer, maar onderzoek toont aan dat de beschikbaarheid van hun afbeeldingen online de nachtmerrie levend houdt voor het kind, hun familie en vrienden. Het kan ook de interactie van een slachtoffer met internet voor de rest van zijn leven aanzienlijk beïnvloeden.
Technologiebedrijven bevinden zich in een unieke positie om als bewakers van de drempel op te treden door seksueel expliciete inhoud die naar hun diensten is geüpload, te verwijderen en te rapporteren. Dus waarom doen ze niet meer om miljoenen kinderen over de hele wereld agressief te beschermen?
Zelfs in de begindagen van het internet, het was duidelijk dat diensten van technologiebedrijven werden gebruikt om inhoud over seksueel misbruik van kinderen te verspreiden. Al in 1995, de chatrooms van AOL - een vroege incarnatie van sociale media - zouden naar verluidt zijn gebruikt om materiaal over kindermisbruik te delen. In antwoord, AOL-managers beweerden destijds dat ze hun best deden om misbruik van hun systeem in toom te houden, maar dat hun systeem te groot was om te beheren. Dit is precies hetzelfde excuus dat we meer dan twee decennia later horen van de titanen van tech.
Tussen 2003 en 2008 ondanks herhaalde beloften om te handelen, grote technologiebedrijven hebben geen technologie ontwikkeld of gebruikt die illegale of schadelijke inhoud kan vinden en verwijderen, ook al schond het hun servicevoorwaarden. Toen in 2009 Microsoft werkte samen met het National Center for Missing and Exploited Children en een team van Dartmouth College, waaronder een van ons (Hany Farid) om de technologie photoDNA te ontwikkelen. Deze software vindt en verwijdert snel bekende gevallen van seksuele inhoud van kinderen wanneer deze wordt geüpload, en is kosteloos verstrekt aan technologiebedrijven die aan het initiatief deelnemen.
Na jaren van druk, photoDNA wordt nu door veel webservices en netwerken gebruikt. Maar technologiebedrijven zijn er sindsdien niet in geslaagd verder te innoveren om te reageren op een steeds geavanceerdere criminele onderwereld. Bijvoorbeeld, ondanks de toename van video's over kindermishandeling, technologiebedrijven hebben nog geen systemen geïmplementeerd die aanstootgevend beeldmateriaal kunnen identificeren, zoals photoDNA dat kan doen voor afbeeldingen.
Deze bedrijven moeten sneller handelen om illegale afbeeldingen te blokkeren en te verwijderen, en reageren op andere activiteiten die kinderuitbuiting mogelijk maken en aanmoedigen. Dit betekent voortdurend nieuwe technologieën ontwikkelen, maar ook een fundamentele heroverweging van de perverse prikkel om geld te verdienen met gebruikersinhoud, ongeacht wat die inhoud eigenlijk is.
Controle in de weg staan
Echter, een combinatie van financiële, juridische en filosofische kwesties staan technologiebedrijven in de weg om illegale activiteiten op hun diensten te beteugelen. In eerste instantie, het verwijderen van inhoud is in veel gevallen gewoon slecht voor het bedrijfsleven omdat het de mogelijkheden voor advertentie-inkomsten en het verzamelen van gebruikersgegevens (die ook kunnen worden verkocht) vermindert.
In de tussentijd, de wet ontslaat technologiebedrijven vaak van de verantwoordelijkheid voor de inhoud die ze hosten. In de VS, Sectie 230 van de Communications Decency Act geeft technologiebedrijven een brede immuniteit van vervolging voor de illegale activiteiten van hun gebruikers. Deze immuniteit berust op het categoriseren van YouTube of Facebook als goedaardige "platforms" in tegenstelling tot actieve "uitgevers". De situatie in de EU is vergelijkbaar. Bovendien, sommige technologiebedrijven zijn van mening dat illegale activiteiten een verantwoordelijkheid van de staat zijn, in plaats van een zakelijke.
Gezien de grootte, rijkdom en bereik van de techreuzen, deze excuses rechtvaardigen geen passiviteit. Ze moeten proactief inhoud modereren en illegale afbeeldingen verwijderen die naar hun sites zijn geüpload. Ze kunnen en moeten helpen bij het informeren van onderzoek op dit cruciale gebied van kinderveiligheid, samenwerken met wetshandhavers en onderzoekers om de plaag van online kindermisbruik te onderzoeken en aan het licht te brengen.
Adverteerders kunnen financiële druk uitoefenen om sites aan te moedigen illegale en beledigende inhoud van derden te modereren en te blokkeren (zoals verschillende bedrijven hebben gedaan na de laatste mislukkingen op YouTube). Maar zulke boycots duren zelden. Dus als publieke druk niet genoeg is, kan overheidsregulering nodig zijn die bedrijven dwingt om hun eigen servicevoorwaarden en lokale wetten na te leven.
Dit kan moeilijk zijn voor de politie. Het kan onbedoelde gevolgen hebben, zoals het moeilijker maken voor kleine bedrijven om te concurreren met de huidige technologische reuzen. Of het kan bedrijven aanmoedigen om overdreven te reageren en te restrictief te worden met betrekking tot toegestane inhoud. In welk geval, we zouden liever zien dat technologiebedrijven hun enorme rijkdom en middelen benutten en gewoon het juiste doen.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com