Science >> Wetenschap >  >> anders

Algoritmen helpen mensen hun vooroordelen te zien en te corrigeren, zo blijkt uit onderzoek

Algoritmen kunnen dienen als spiegels waarmee u uw vooroordelen kunt controleren. Credit:Unsplash/CC0 Publiek Domein

Algoritmen zijn een belangrijk onderdeel van het moderne leven. Mensen vertrouwen op algoritmische aanbevelingen om door diepe catalogi te bladeren en de beste films, routes, informatie, producten, mensen en investeringen te vinden. Omdat mensen algoritmen trainen op het gebied van hun beslissingen (bijvoorbeeld algoritmen die aanbevelingen doen op e-commerce- en sociale-mediasites) leren algoritmen menselijke vooroordelen en coderen ze deze.



Algoritmische aanbevelingen vertonen een voorkeur voor populaire keuzes en informatie die verontwaardiging oproept, zoals partijdig nieuws. Op maatschappelijk niveau bestendigen en versterken algoritmische vooroordelen de structurele raciale vooroordelen in het rechtssysteem, de gendervooroordelen bij de mensen die bedrijven in dienst nemen en de welvaartsongelijkheid in de stedelijke ontwikkeling.

Algoritmische vooroordelen kunnen ook worden gebruikt om menselijke vooroordelen te verminderen. Algoritmen kunnen verborgen structurele vooroordelen in organisaties blootleggen. In een artikel gepubliceerd in de Proceedings of the National Academy of Science , ontdekten mijn collega's en ik dat algoritmische vooroordelen mensen kunnen helpen vooroordelen bij zichzelf beter te herkennen en te corrigeren.

De bias in de spiegel

In negen experimenten lieten Begum Celikitutan, Romain Cadario en ik onderzoeksdeelnemers Uber-chauffeurs of Airbnb-advertenties beoordelen op hun rijvaardigheid, betrouwbaarheid of de waarschijnlijkheid dat ze de advertentie zouden huren. We gaven de deelnemers relevante details, zoals het aantal ritten dat ze hadden gereden, een beschrijving van de accommodatie of een sterbeoordeling. We hebben ook een irrelevant stukje informatie toegevoegd:een foto onthulde de leeftijd, het geslacht en de aantrekkelijkheid van de chauffeurs, of een naam die suggereerde dat de hosts van een advertentie blank of zwart waren.

Nadat de deelnemers hun beoordelingen hadden gemaakt, lieten we ze een van de twee beoordelingensamenvattingen zien:één met hun eigen beoordelingen, of één met de beoordelingen van een algoritme dat op basis van hun beoordelingen was getraind. We vertelden de deelnemers over het vertekenende kenmerk dat deze beoordelingen mogelijk heeft beïnvloed; bijvoorbeeld dat Airbnb-gasten minder snel huren van verhuurders met duidelijk Afro-Amerikaanse namen. Vervolgens vroegen we hen om te beoordelen hoeveel invloed de bias had op de beoordelingen in de samenvattingen.

Of deelnemers nu de vertekenende invloed van ras, leeftijd, geslacht of aantrekkelijkheid beoordeelden, ze zagen meer vertekening in de beoordelingen van algoritmen dan zijzelf. Dit algoritmische spiegeleffect hield in of deelnemers de beoordelingen van echte algoritmen beoordeelden of dat we deelnemers hun eigen beoordelingen lieten zien en hen op bedrieglijke wijze vertelden dat een algoritme die beoordelingen maakte.

De auteur beschrijft hoe algoritmen nuttig kunnen zijn als spiegel van de vooroordelen van mensen.

Deelnemers zagen meer vooroordelen in de beslissingen van algoritmen dan in hun eigen beslissingen, zelfs toen we deelnemers een geldbonus gaven als hun vooringenomen oordelen overeenkwamen met de oordelen van een andere deelnemer die dezelfde beslissingen zag. Het algoritmische spiegeleffect hield zelfs stand als deelnemers tot de gemarginaliseerde categorie behoorden, bijvoorbeeld door zich te identificeren als vrouw of als zwart.

Onderzoeksdeelnemers konden vooroordelen net zo goed zien in algoritmen die waren getraind op hun eigen beslissingen als vooroordelen in de beslissingen van andere mensen. Ook zagen deelnemers vaker de invloed van raciale vooroordelen in de beslissingen van algoritmen dan in hun eigen beslissingen, maar ze zagen evenzeer de invloed van verdedigbare kenmerken, zoals sterbeoordelingen, op de beslissingen van algoritmen en op hun eigen beslissingen. beslissingen.

Vertekening dode hoek

Mensen zien meer van hun vooroordelen in algoritmen omdat de algoritmen de blinde vlekken van mensen wegnemen. Het is gemakkelijker om vooroordelen in de beslissingen van anderen te zien dan in die van jezelf, omdat je ander bewijsmateriaal gebruikt om ze te evalueren.

Wanneer u uw beslissingen onderzoekt op vooringenomenheid, zoekt u naar bewijs van bewuste vooringenomenheid, of u nu aan ras, geslacht, leeftijd, status of andere ongegronde kenmerken dacht bij het nemen van een beslissing. Je ziet vooroordelen in je beslissingen over het hoofd en excuseert ze, omdat je geen toegang hebt tot de associatieve machinerie die je intuïtieve oordelen aanstuurt, waar vooroordelen vaak een rol spelen. Je zou kunnen denken:"Ik heb niet aan hun ras of geslacht gedacht toen ik ze aannam. Ik heb ze alleen op basis van verdienste aangenomen."

Wanneer je de beslissingen van anderen onderzoekt op vooringenomenheid, heb je geen toegang tot de processen die zij hebben gebruikt om de beslissingen te nemen. Je onderzoekt dus hun beslissingen op vooringenomenheid, waarbij vooringenomenheid evident en moeilijker te verontschuldigen is. Je zou bijvoorbeeld kunnen zien dat ze alleen blanke mannen inhuurden.

Algoritmen nemen de blinde vlek weg, omdat je algoritmen meer ziet alsof je andere mensen ziet dan jezelf. De besluitvormingsprocessen van algoritmen zijn een black box, vergelijkbaar met hoe de gedachten van andere mensen voor jou ontoegankelijk zijn.

De blinde vlek uitgelegd.

Deelnemers aan ons onderzoek die het meest waarschijnlijk de blinde vlek voor bias zouden aantonen, zagen waarschijnlijk meer bias in de beslissingen van algoritmen dan in hun eigen beslissingen.

Mensen externaliseren ook vooroordelen in algoritmen. Het zien van vooroordelen in algoritmen is minder bedreigend dan het zien van vooroordelen bij jezelf, zelfs als algoritmen zijn getraind op jouw keuzes. Mensen leggen de schuld bij algoritmen. Algoritmen zijn getraind op menselijke beslissingen, maar mensen noemen de weerspiegelde vooroordelen 'algoritmische vooroordelen'.

Corrigerende lens

Uit onze experimenten blijkt dat mensen ook eerder geneigd zijn hun vooroordelen te corrigeren als deze in algoritmen worden weerspiegeld. In een laatste experiment gaven we deelnemers de kans om de beoordelingen die ze beoordeelden te corrigeren. We hebben elke deelnemer zijn eigen beoordeling laten zien, die we aan de deelnemer hebben toegeschreven of aan een algoritme dat is getraind op basis van zijn beslissingen.

Deelnemers corrigeerden de beoordelingen eerder als ze aan een algoritme werden toegeschreven, omdat ze dachten dat de beoordelingen bevooroordeelder waren. Als gevolg hiervan waren de uiteindelijke gecorrigeerde beoordelingen minder vertekend wanneer ze aan een algoritme werden toegeschreven.

Algoritmische vooroordelen met schadelijke gevolgen zijn goed gedocumenteerd. Onze bevindingen laten zien dat algoritmische bias ten goede kan worden benut. De eerste stap om vooringenomenheid te corrigeren is het onderkennen van de invloed en richting ervan. Als spiegels die onze vooroordelen onthullen, kunnen algoritmen onze besluitvorming verbeteren.

Journaalinformatie: Proceedings van de Nationale Academie van Wetenschappen

Aangeboden door The Conversation

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.