science >> Wetenschap >  >> Elektronica

Waarom socialemediabedrijven moeite zullen hebben om de nieuwe EU-regels inzake illegale inhoud te volgen

Tegoed:Unsplash/CC0 Publiek domein

Dankzij sociale media konden we als nooit tevoren met elkaar in contact komen. Maar het kwam met een prijs:het gaf een megafoon aan iedereen, inclusief terroristen, kindermisbruikers en haatgroepen. EU-instellingen hebben onlangs overeenstemming bereikt over de Digital Services Act (DSA), die tot doel heeft "ervoor te zorgen dat wat offline illegaal is, als illegaal online wordt behandeld".

De Britse regering heeft ook een wetsvoorstel voor onlineveiligheid in de maak, om de vereisten voor digitale platforms om illegaal materiaal te verwijderen, op te voeren.

De schaal waarop grote sociale-mediaplatforms opereren - ze kunnen miljarden gebruikers van over de hele wereld hebben - vormt een grote uitdaging bij het controleren van illegale inhoud. Wat in het ene land illegaal is, kan in een ander land legaal en beschermd zijn. Bijvoorbeeld regels rond het bekritiseren van de overheid of leden van een koninklijke familie.

Dit wordt ingewikkeld wanneer een gebruiker vanuit het ene land post en het bericht in andere landen wordt gedeeld en bekeken. Binnen het VK zijn er zelfs situaties geweest waarin het legaal was om iets op de voorpagina van een krant in Schotland te drukken, maar niet in Engeland.

De DSA laat het aan de EU-lidstaten over om illegale inhoud in hun eigen wetten te definiëren.

De databasebenadering

Zelfs waar de wet duidelijk is, bijvoorbeeld iemand die gecontroleerde drugs te koop aanbied of rekruteert voor verboden terreurgroepen, staat contentmoderatie op sociale-mediaplatforms voor grote uitdagingen.

Gebruikers plaatsen honderden miljoenen berichten per dag. Automatisering kan bekende illegale inhoud detecteren op basis van een vage vingerafdruk van de inhoud van het bestand. Maar dit werkt niet zonder een database en de inhoud moet worden beoordeeld voordat deze wordt toegevoegd.

In 2021 onderzocht de Internet Watch Foundation meer meldingen dan in hun eerste 15 jaar van bestaan, waaronder 252.000 die kindermishandeling bevatten:een stijging van 64% jaar-op-jaar vergeleken met 2020.

Nieuwe video's en afbeeldingen worden echter niet opgevangen door een database. Hoewel kunstmatige intelligentie kan proberen naar nieuwe inhoud te zoeken, zal het niet altijd de zaken goed doen.

Hoe verhouden de sociale platforms zich tot elkaar?

Begin 2020 had Facebook naar verluidt ongeveer 15.000 inhoudsmoderators in de VS, vergeleken met 4.500 in 2017. TikTok beweerde dat er 10.000 mensen werken aan "vertrouwen en veiligheid" (wat een beetje ruimer is dan inhoudsmoderatie). 2020. Een rapport van de NYU Stern School of Business uit 2020 suggereerde dat Twitter ongeveer 1.500 moderators had.

Facebook beweert dat in 2021 97% van de inhoud die ze als aanzetten tot haat hebben gemarkeerd, is verwijderd door AI, maar we weten niet wat er is gemist, niet is gemeld of niet is verwijderd.

De DSA zal ervoor zorgen dat de grootste sociale netwerken hun gegevens en informatie openstellen voor onafhankelijke onderzoekers, wat de transparantie zou moeten vergroten.

Menselijke moderators versus tech

Het beoordelen van gewelddadige, verontrustende, racistische en haatdragende inhoud kan traumatisch zijn voor moderators en leidde tot een gerechtelijke schikking van 52 miljoen dollar (42 miljoen pond). Sommige moderators van sociale media melden dat ze maar liefst 8.000 stukjes gemarkeerde inhoud per dag moeten beoordelen.

Hoewel er op AI gebaseerde technieken in opkomst zijn die proberen specifieke soorten inhoud te detecteren, hebben op AI gebaseerde tools moeite om onderscheid te maken tussen illegale en onsmakelijke of potentieel schadelijke (maar verder legale) inhoud. AI kan onschadelijke inhoud onterecht markeren, schadelijke inhoud over het hoofd zien en zal de behoefte aan menselijke beoordeling vergroten.

Facebook's eigen interne onderzoeken hebben naar verluidt gevallen gevonden waarin de verkeerde actie werd ondernomen tegen berichten, maar liefst '90% van de tijd'. Gebruikers verwachten consistentie, maar dit is moeilijk op grote schaal te realiseren en de beslissingen van moderators zijn subjectief. Grijze gebieden zullen zelfs de meest specifieke en voorgeschreven richtlijnen frustreren.

Evenwichtsoefening

De uitdaging strekt zich ook uit tot verkeerde informatie. Er is een dunne lijn tussen het beschermen van de vrijheid van meningsuiting en de persvrijheid en het voorkomen van opzettelijke verspreiding van valse inhoud. Dezelfde feiten kunnen vaak anders worden geformuleerd, iets dat bekend is bij iedereen die bekend is met de lange geschiedenis van 'spin' in de politiek.

Sociale netwerken zijn vaak afhankelijk van gebruikers die schadelijke of illegale inhoud melden, en de DSA probeert dit te versterken. Maar een overdreven geautomatiseerde benadering van moderatie kan inhoud die een bepaald aantal rapporten bereikt, markeren of zelfs verbergen. Dit betekent dat groepen gebruikers die inhoud of standpunten willen onderdrukken, massale rapportage van inhoud kunnen bewapenen.

Social-mediabedrijven richten zich op gebruikersgroei en tijd die op het platform wordt doorgebracht. Zolang misbruik geen van beide tegenhoudt, zullen ze waarschijnlijk meer geld verdienen. Daarom is het belangrijk wanneer platforms strategische (maar potentieel polariserende) stappen nemen, zoals het verwijderen van de voormalige Amerikaanse president Donald Trump van Twitter.

De meeste verzoeken van de DSA zijn op zich redelijk, maar zullen moeilijk op grote schaal uit te voeren zijn. Meer toezicht op inhoud zal leiden tot meer gebruik van automatisering, die geen subjectieve evaluaties van de context kan maken. Beroep kan te traag zijn om een ​​zinvol verhaal te bieden als een gebruiker ten onrechte een automatisch verbod krijgt.

Als de juridische straffen voor het verkeerd modereren van inhoud hoog genoeg zijn voor sociale netwerken, kunnen ze op korte termijn weinig andere keuze hebben dan om zorgvuldiger te beperken wat gebruikers te zien krijgen. TikTok's benadering van zorgvuldig geselecteerde inhoud werd alom bekritiseerd. Platformvooroordelen en "filterbubbels" zijn een reëel probleem. Er worden filterbubbels gemaakt waarbij de aan u getoonde inhoud automatisch wordt geselecteerd door een algoritme dat probeert te raden wat u vervolgens wilt zien, op basis van gegevens zoals waar u eerder naar heeft gekeken. Gebruikers beschuldigen socialemediabedrijven soms van platformbias of oneerlijke moderatie.

Is er een manier om een ​​wereldwijde megafoon te modereren? Ik zou zeggen dat het bewijs wijst op nee, althans niet op schaal. We zullen het antwoord waarschijnlijk zien uitkomen door handhaving van de DSA voor de rechtbank.