Wetenschap
Krediet:Mr Tempter/Shutterstock
Creëert YouTube extremisten? Een recente studie veroorzaakte discussies onder wetenschappers door te stellen dat de algoritmen die de site aansturen niet helpen om mensen te radicaliseren door steeds extremere video's aan te bevelen, zoals de afgelopen jaren is gesuggereerd.
De krant, ingediend bij open-access tijdschrift First Monday, maar moet nog formeel door vakgenoten worden beoordeeld, geanalyseerde video-aanbevelingen ontvangen door verschillende soorten kanalen. Het beweerde dat het algoritme van YouTube de voorkeur geeft aan reguliere mediakanalen boven onafhankelijke inhoud, concluderen dat radicalisering meer te maken heeft met de mensen die schadelijke inhoud maken dan met het algoritme van de site.
Specialisten in het veld reageerden snel op het onderzoek, sommigen bekritiseerden de methoden van het artikel en anderen beweerden dat het algoritme een van de vele belangrijke factoren was en dat datawetenschap alleen ons het antwoord niet zal geven.
Het probleem met deze discussie is dat we de vraag welke rol het algoritme van YouTube speelt bij het radicaliseren van mensen niet echt kunnen beantwoorden, omdat we niet begrijpen hoe het werkt. En dit is slechts een symptoom van een veel breder probleem. Deze algoritmen spelen een steeds grotere rol in ons dagelijks leven, maar missen enige vorm van transparantie.
Het is moeilijk te beweren dat YouTube geen rol speelt bij radicalisering. Dit werd voor het eerst opgemerkt door technologiesocioloog Zeynep Tufekci, die illustreerde hoe aanbevolen video's gebruikers geleidelijk naar meer extreme inhoud leiden. In de woorden van Tufekci, video's over joggen leiden tot video's over het lopen van ultramarathons, video's over vaccins leiden tot complottheorieën, en video's over politiek leiden tot 'ontkenningen van de Holocaust en andere verontrustende inhoud'.
Hier is ook uitgebreid over geschreven door ex-YouTube-medewerker Guillaume Chaslot die aan het aanbevelingsalgoritme van de site heeft gewerkt. Sinds het verlaten van het bedrijf, Chaslot is blijven proberen die aanbevelingen transparanter te maken. Hij zegt dat YouTube-aanbevelingen vooringenomen zijn in de richting van complottheorieën en feitelijk onnauwkeurige video's. waardoor mensen toch meer tijd op de site doorbrengen.
In feite, het maximaliseren van de kijktijd is het hele punt van de algoritmen van YouTube, en dit moedigt videomakers aan om op alle mogelijke manieren te vechten voor aandacht. Het pure gebrek aan transparantie van het bedrijf over hoe dit precies werkt, maakt het bijna onmogelijk om radicalisering op de site te bestrijden. Ten slotte, zonder transparantie, het is moeilijk om te weten wat er kan worden veranderd om de situatie te verbeteren.
Maar YouTube is in dit opzicht niet ongebruikelijk. Een gebrek aan transparantie over hoe algoritmen werken, is meestal het geval wanneer ze worden gebruikt in grote systemen, hetzij door particuliere bedrijven of overheidsinstanties. Naast het beslissen welke video je de volgende keer wilt laten zien, algoritmen voor machinaal leren worden nu gebruikt om kinderen op scholen te plaatsen, beslissen over gevangenisstraffen, kredietscores en verzekeringstarieven bepalen, evenals het lot van immigranten, sollicitanten en universitaire sollicitanten. En meestal begrijpen we niet hoe deze systemen hun beslissingen nemen.
Onderzoekers hebben creatieve manieren gevonden om de impact van deze algoritmen op de samenleving te laten zien, of we nu kijken naar de opkomst van reactionair rechts of de verspreiding van complottheorieën op YouTube, of door te laten zien hoe zoekmachines de racistische vooroordelen weerspiegelen van de mensen die ze creëren.
Machine learning-systemen zijn meestal groot, complex, en ondoorzichtig. passend, ze worden vaak beschreven als zwarte dozen, waar informatie binnenkomt, en informatie of acties naar buiten komen, maar niemand kan zien wat er tussendoor gebeurt. Dit betekent dat, omdat we niet precies weten hoe algoritmen zoals het YouTube-aanbevelingssysteem werken, proberen uit te vinden hoe de site werkt, zou hetzelfde zijn als proberen een auto te begrijpen zonder de motorkap te openen.
Beurtelings, dit betekent dat het proberen om wetten te schrijven om te regelen wat algoritmen wel of niet moeten doen, een blind proces of vallen en opstaan wordt. Dit is wat er gebeurt met YouTube en met zoveel andere algoritmen voor machine learning. We proberen inspraak te hebben in hun resultaten, zonder echt te begrijpen hoe ze echt werken. We moeten deze gepatenteerde technologieën openstellen, of ze in ieder geval transparant genoeg te maken zodat we ze kunnen reguleren.
Uitleg en testen
Een manier om dit te doen zou zijn dat algoritmen contrafeitelijke verklaringen geven bij hun beslissingen. Dit betekent het uitwerken van de minimale voorwaarden die nodig zijn voor het algoritme om een andere beslissing te nemen, zonder de volledige logica ervan te beschrijven. Bijvoorbeeld, een algoritme dat beslissingen neemt over bankleningen kan een output opleveren die zegt dat "als je ouder was dan 18 en geen eerdere schulden had, je zou je banklening geaccepteerd hebben." Maar dit kan moeilijk zijn met YouTube en andere sites die aanbevelingsalgoritmen gebruiken, zoals in theorie kan elke video op het platform op elk moment worden aanbevolen.
Een ander krachtig hulpmiddel is het testen en controleren van algoritmen, wat vooral nuttig is geweest bij het diagnosticeren van bevooroordeelde algoritmen. In een recent geval een professioneel bedrijf dat cv's screent, ontdekte dat zijn algoritme twee factoren als beste voorspellers van werkprestaties vooropstelde:of de naam van de kandidaat Jared was, en als ze lacrosse speelden op de middelbare school. Dit is wat er gebeurt als de machine zonder toezicht gaat.
In dit geval, het cv-screeningalgoritme had gemerkt dat blanke mannen een grotere kans hadden om aangenomen te worden, en correlerende proxykenmerken (zoals Jared genoemd worden of lacrosse spelen) aanwezig hadden gevonden in de kandidaten die werden aangenomen. Met YouTube, Algoritmecontrole zou kunnen helpen begrijpen welke soorten video's prioriteit krijgen voor aanbeveling - en misschien helpen bij het beslechten van het debat over de vraag of YouTube-aanbevelingen bijdragen aan radicalisering of niet.
Het introduceren van contrafeitelijke verklaringen of het gebruik van algoritme-audit is een moeilijk, kostbaar proces. Maar het is belangrijk, omdat het alternatief slechter is. Als algoritmen ongecontroleerd en ongereguleerd blijven, we konden een geleidelijke sluiping van complottheoretici en extremisten in onze media zien, en onze aandacht wordt gecontroleerd door degene die de meest winstgevende inhoud kan produceren.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com