Wetenschap
Krediet:Ecole Polytechnique Federale de Lausanne
Algoritmen worden gebruikt om onze nieuwsfeed op sociale media te personaliseren. Maar het risico is dat de gezichtspunten die we voorgeschoteld krijgen steeds beperkter en extremer worden. EPFL-onderzoekers hebben een oplossing ontwikkeld die de gepersonaliseerde inhoud van gebruikers evenwichtiger, en hun project heeft al interesse gewekt bij mensenrechtenactivisten.
Wanneer u op de ene link klikt in plaats van op de andere, uw keuze heeft invloed op de inhoud die u op verschillende websites verderop te zien krijgt. De algoritmen die gebruikt worden door social media platforms zoals Facebook leren wat onze voorkeuren zijn en zorgen voor steeds meer content die aansluit bij onze interesses. Het risico is dat we nooit iets te zien krijgen dat tegen onze mening ingaat, en dit kan onze kijk op de wereld vertekenen. "Door steeds zorgvuldiger te selecteren wat we zien, deze algoritmen vervormen de werkelijkheid. Social media platforms worden effectief echokamers waarin meningen steeds extremer kunnen worden, " legt Elisa Celis uit, senior onderzoeker in de School of Computer and Communication Sciences (IC) bij EPFL.
En dat kan impact hebben op de lezer. "Talrijke onderzoeken hebben aangetoond dat als je ergens niet over beslist, uw beslissing zal uiteindelijk worden beïnvloed door de frequentie en volgorde waarin u de informatie krijgt aangeboden. Dus deze algoritmen kunnen je mening vormen op basis van vooringenomen gegevens, ", zegt Celis. Als antwoord op dit probleem, Celis werkte samen met Nisheeth Vishnoi, professor in de School of Computer and Communication Sciences (IC) bij EPFL, om een systeem te ontwikkelen om te voorkomen dat gebruikers totaal eenzijdige inhoud te zien krijgen.
Een algoritme dat net zo effectief is
Ze ontwierpen een algoritme dat kan worden aangepast om ervoor te zorgen dat gebruikers een minimum aan diverse inhoud te zien krijgen. "Een social media platform zou, bijvoorbeeld, ervoor kiezen om weergaven te hebben die tegengesteld zijn aan die van de gebruiker, die ten minste 10 procent van de nieuwsfeed uitmaken om ervoor te zorgen dat de kijk van de gebruiker op de wereld evenwichtiger blijft, ", leggen de onderzoekers uit. Het algoritme zou gemakkelijk kunnen worden geïntegreerd in huidige systemen. De grootste uitdaging is om de grote bedrijven aan boord te krijgen. "Voor platforms als Facebook, deze algoritmen moeten effectief zijn om advertentie-inkomsten te genereren. We wilden laten zien dat het mogelijk is om een algoritme te maken dat net zo effectief is, maar waarmee inhoud op een eerlijkere en evenwichtigere manier kan worden aangepast, " legt Vishnoi uit.
Het vergroten van het bewustzijn van regeringen met betrekking tot deze kwestie zal een sleutelfactor zijn als het gaat om het opvullen van de wettelijke leemte op dit gebied. Verschillende mensenrechtenorganisaties hebben al interesse getoond in het onderzoeksproject, die ze onlangs presenteerden aan afgevaardigden van mensenrechtenorganisaties in Genève, ook aan leden van het Bureau van de Hoge Commissaris voor de Mensenrechten van de Verenigde Naties. "Deze algoritmen zijn momenteel volledig ongereguleerd omdat de impact van de vooringenomenheid die ze genereren nog niet goed wordt begrepen. Als burger, Ik voel me machteloos omdat ik geen controle heb over de inhoud die ik zie. De huidige stand van zaken zou heel gevaarlijk kunnen zijn voor de democratie. We moeten echt op zoek naar alternatieve oplossingen, ", voegt Vishnoi toe.
Wetenschap © https://nl.scienceaq.com