Wetenschap
Krediet:Hannah Moore/Northeastern University
Door vijf verschillende rechtszaken tegelijk te beslechten, Facebook beloofde eerder dit jaar de manier te veranderen waarop het de advertenties voor huisvesting beheert, werkgelegenheid, en krediet die op zijn platform draaien. Adverteerders zouden niet langer een doelgroep kunnen targeten op geslacht, ras, of leeftijd, om discriminatie van wettelijk beschermde groepen te voorkomen.
Maar, nieuw onderzoek door een team van computerwetenschappers, waaronder Noordoost-professor Alan Mislove, toont aan dat het algoritme dat Facebook gebruikt om advertenties weer te geven, nog steeds scheef kan trekken naar specifieke demografische groepen, ondanks de wijzigingen die het bedrijf heeft aangebracht.
"Om duidelijk te zijn, we beschuldigen Facebook er niet van de schikking te schenden, " zegt Misliefde, die hoogleraar computerwetenschappen is aan Northeastern. "Liever, wat uit ons onderzoek blijkt, is dat er een complex algoritme aan het werk is."
Dat komt omdat algoritmen, Mislove zegt, handelen in de praktijk heel anders dan in theorie.
In theorie, het verwijderen van de mogelijkheid van adverteerders om mensen specifiek op ras te targeten, geslacht, en leeftijd moeten resulteren in een advertentiepubliek met een diverse mix van mensen. In praktijk, Het algoritme van Facebook is gebaseerd op talloze andere kenmerken van zijn gebruikers die uiteindelijk dienen als proxy's voor race, geslacht, en leeftijd, Misliefde zegt.
Deze zomer, Facebook introduceerde zijn Special Ad Audience-functie, een marketingtool voor mensen die reclame maken voor advertenties die krediet bieden, werkgelegenheid, of woonmogelijkheden. Terwijl een kledingbedrijf misschien rechtstreeks naar mannen of vrouwen wil adverteren, de domeinen van krediet, werkgelegenheid, en huisvesting hebben in de Verenigde Staten speciale wettelijke bescherming om discriminatie te voorkomen.
Mislove werkte met een team van onderzoekers waartoe ook de noordoostelijke promovendi Piotr Sapiezynski en Avijit Ghosh behoorden, student Levi Kaplan, en een onderzoeker van de non-profit technologieorganisatie Upturn om de nieuwe functie te testen tegen zijn voorganger, een vergelijkbaar publiek genoemd> .
De onderzoekers gebruikten openbaar beschikbare kiezersgegevens om doelgroepen te creëren die opzettelijk waren bevooroordeeld door ras, geslacht, leeftijd, en politieke opvattingen, en voerde ze door naar zowel de nieuwe als de bestaande advertentietools om te testen of het bijbehorende algoritme elke bias zou reproduceren.
De resultaten waren opvallend:zowel Lookalike als Special Ad-doelgroepen repliceerden de demografische scheeftrekkingen.
In een verklaring aan ProPublica, Facebook-woordvoerder Joe Osborne zei:"We hebben ons uiterste best gedaan om discriminatie in advertenties te helpen voorkomen door targeting te beperken en transparantie toe te voegen. Een adverteerder die vastbesloten is mensen te discrimineren, kan dat tegenwoordig op elk online of offline medium doen. daarom bestaan er wetten... Wij zijn het enige digitale mediaplatform dat zulke betekenisvolle wijzigingen in advertenties aanbrengt en we zijn trots op onze vooruitgang."
Mislove zegt dat de resultaten de moeilijke taak illustreren om eerlijkheid in algoritmen te waarborgen.
"In praktijk, een algoritme krijgt miljoenen inputs, die elk op een andere manier gecorreleerd zijn met deze beschermde kenmerken, "zegt Mislove.
Informatie zoals waar je naar de universiteit ging, waar woon je, welke pagina's je hebt 'geliked' op Facebook, en meer kunnen onbedoeld dienen als indicatoren over uw ras, geslacht, en leeftijd - en algoritmen die zijn gebouwd om de resultaten te optimaliseren, kunnen op dergelijke informatie vertrouwen om te bepalen wie het meest waarschijnlijk op een advertentie zal klikken.
"Algoritmen geven er niet om, " zegt Mislove. "Ze hebben een specifiek doel, en ze gaan de combinatie van functies gebruiken die zullen resulteren in het bereiken van dat doel; het maakt hen niet uit als dat betekent dat ze advertenties voor technische banen alleen aan blanke mannen tussen de 18 en 24 jaar leveren."
Dit is een complexe, maar dringend probleem, Mislove zegt, omdat algoritmen steeds meer van onze dagelijkse activiteiten ondersteunen. Algoritmen worden gebruikt om beslissingen te nemen over gezondheidszorg, kredietwaardigheid, werkgelegenheid, strafrechtelijke veroordeling, routebeschrijving, naar welke muziek je luistert, en een duizelingwekkend scala aan andere dagelijkse interacties.
Alle spelers in deze domeinen "willen de efficiëntie van algoritmen, maar niet iedereen denkt na over de manieren waarop ze fout kunnen gaan, "zegt Mislove.
Als er iets mis gaat, de oplossing is vaak erg complex.
"Het is nu heel moeilijk, in de zin dat de beschermde identiteiten [waartegen discriminatie kan optreden] echt doordringen in onze samenleving, ", zegt Mislove. "Het zal veel moeilijker en veel subtieler zijn dan het simpelweg verwijderen van bepaalde functies in het begin."
Wetenschap © https://nl.scienceaq.com