Wetenschap
Tegoed:Unsplash/CC0 Publiek domein
De recente waarschuwing van de Australische regering aan Facebook over verkeerde informatie is slechts het laatste salvo in de schijnbaar constante strijd om de socialemediagigant ter verantwoording te roepen voor de inhoud die op zijn platform is geplaatst.
Het kwam in dezelfde week dat de Amerikaanse Senaat een getuigenis van klokkenluiders hoorde waarin voormalig Facebook-directeur Frances Haugen beweerde dat het bedrijf op de hoogte was van schadelijke gevolgen voor zijn gebruikers, maar ervoor koos om niet op te treden.
Overheden over de hele wereld dringen er al jaren op aan om socialemediagiganten meer verantwoordelijkheid te geven, zowel wat betreft de kwaliteit van de informatie die ze hosten als hun gebruik van gebruikersgegevens als onderdeel van hun bedrijfsmodellen.
De Online Safety Act van de Australische regering treedt in januari 2022 in werking, waardoor de eSafety Commissioner ongekende bevoegdheden krijgt om beledigende of gewelddadige inhoud of seksuele afbeeldingen die zonder toestemming zijn geplaatst, aan te pakken.
Maar zelfs als ze succesvol is, zal deze wetgeving slechts een klein deel van de problemen aanpakken die regulering vereisen. Bij veel van dergelijke kwesties hebben sociale-mediaplatforms geprobeerd zichzelf te reguleren in plaats van zich te onderwerpen aan wetgeving. Maar of we het nu hebben over wetgeving of zelfregulering, ervaringen uit het verleden wekken niet veel vertrouwen dat tech-platforms met succes kunnen worden gereguleerd en regulering gemakkelijk in actie kan worden gebracht.
Ons onderzoek heeft eerdere pogingen onderzocht om techreuzen in Australië te reguleren. We analyseerden 269 media-artikelen en 282 beleidsdocumenten en brancherapporten die van 2015 tot 2021 zijn gepubliceerd. Laten we een paar relevante casestudies bespreken.
1. Advertenties en nieuws
In 2019 beschreef het onderzoek van de Australian Competition and Consumer Commission (ACCC) naar digitale platforms de algoritmen van Facebook, met name die welke de positionering van advertenties op Facebook-pagina's bepalen, als 'ondoorzichtig'. Het concludeerde dat mediabedrijven meer zekerheid nodig hadden over het gebruik van hun inhoud.
Facebook verwelkomde het onderzoek aanvankelijk, maar verzette zich er vervolgens publiekelijk tegen (samen met Google) toen de regering betoogde dat de problemen in verband met de aanzienlijke marktmacht van Facebook op het gebied van display-advertenties, en de dominantie van Facebook en Google in nieuwsinhoud gegenereerd door mediabedrijven, te belangrijk waren om te worden aan de bedrijven zelf overgelaten.
Facebook voerde aan dat er geen bewijs was van een onevenwicht in de onderhandelingsmacht tussen Facebook en nieuwsmediabedrijven, en voegde eraan toe dat het geen andere keuze zou hebben dan nieuwsdiensten in Australië terug te trekken als het uitgevers zou moeten betalen voor het hosten van hun inhoud. De impasse resulteerde in Facebook's beruchte embargo van een week op Australisch nieuws.
De herziene en gewijzigde News Media Bargaining Code is in februari door het parlement aangenomen. Zowel de overheid als Facebook hebben de overwinning uitgeroepen, de eerste is erin geslaagd om zijn wetgeving door te voeren en de laatste heeft uiteindelijk zijn eigen afspraken gemaakt met nieuwsuitgevers zonder wettelijk aan de code te hoeven worden gehouden.
2. Aanzetten tot haat en terrorisme
Om gewelddadig extremisme op sociale media aan te pakken, werkte de Australische regering in 2015 aanvankelijk samen met de technologiegigant om gezamenlijke AI-oplossingen te ontwikkelen om de technische processen van inhoudidentificatie te verbeteren om gewelddadig extremisme tegen te gaan.
Deze vrijwillige oplossing werkte briljant, totdat het niet werkte. In maart 2019 werden massale schietpartijen op moskeeën in Christchurch live gestreamd op Facebook door een in Australië geboren blanke racistische terrorist, en de opnames circuleerden vervolgens op internet.
Dit bracht aan het licht dat de kunstmatige intelligentie-algoritmen van Facebook niet in staat waren om de live beelden van de schietpartij te detecteren en te verwijderen en hoe snel deze op het platform werden gedeeld.
De Australische regering reageerde in 2019 door het Wetboek van Strafrecht te wijzigen om sociale-mediaplatforms te verplichten afschuwelijk of gewelddadig materiaal "binnen een redelijke termijn" te verwijderen en, waar relevant, door te verwijzen naar de Australische federale politie.
Wat hebben we geleerd?
Deze twee voorbeelden, hoewel opvallend verschillend, ontvouwden zich beide op een vergelijkbare manier:een eerste dialoog waarin Facebook een interne oplossing voorstelt met zijn eigen algoritmen, gevolgd door een verschuiving naar verplichte overheidsregulering, die op weerstand of onderhandelingen stuit (of beide) van Facebook, en het uiteindelijke resultaat is versnipperde wetgeving die ofwel wordt afgezwakt of slechts een subset van specifieke soorten schade dekt.
Hier zijn een aantal duidelijke problemen mee. De eerste is dat alleen de techreuzen zelf weten hoe hun algoritmen werken, dus het is moeilijk voor regelgevers om ze goed te overzien.
Dan is er het feit dat wetgeving doorgaans op nationaal niveau van toepassing is, maar Facebook is een wereldwijd bedrijf met miljarden gebruikers over de hele wereld en een platform dat op allerlei manieren in ons dagelijks leven is geïntegreerd.
Hoe lossen we de impasse op? Een optie is dat regelgeving wordt opgesteld door onafhankelijke instanties die zijn aangesteld door regeringen en techreuzen om de co-reguleringsagenda wereldwijd aan te sturen. Maar alleen vertrouwen op regelgeving om het gedrag van techreuzen tegen mogelijke misbruiken te sturen, is misschien niet voldoende. Er is ook behoefte aan zelfdiscipline en passend ondernemingsbestuur, mogelijk afgedwongen door deze onafhankelijke instanties.
Wetenschap © https://nl.scienceaq.com