science >> Wetenschap >  >> Elektronica

Nieuw algoritme beperkt bias in machine learning

Krediet:CC0 Publiek Domein

Machine learning - een vorm van kunstmatige intelligentie gebaseerd op het idee dat computers kunnen leren van gegevens en beslissingen kunnen nemen met weinig hulp van mensen - heeft het potentieel om ons leven op talloze manieren te verbeteren. Van zelfrijdende auto's tot mammogramscans die zichzelf kunnen lezen, machine learning verandert het moderne leven.

Het is gemakkelijk om aan te nemen dat het gebruik van algoritmen voor besluitvorming menselijke vooroordelen uit de vergelijking haalt. Maar onderzoekers hebben ontdekt dat machine learning in bepaalde contexten tot oneerlijke beslissingen kan leiden. zoals het aannemen van iemand voor een baan. Bijvoorbeeld, als de gegevens die op het algoritme zijn aangesloten suggereren dat mannen productiever zijn dan vrouwen, de machine zal dat verschil waarschijnlijk 'leren' en mannelijke kandidaten bevoordelen boven vrouwelijke, de vooringenomenheid van de invoer missen. En managers kunnen de discriminatie van de machine misschien niet detecteren, denken dat een geautomatiseerde beslissing inherent neutraal is, resulterend in oneerlijke aanwervingspraktijken.

In een nieuw artikel gepubliceerd in de Proceedings of the 35th Conference on Machine Learning, SFI postdoctoraal onderzoeker Hajime Shimao en Junpei Komiyama, een onderzoeksmedewerker aan de Universiteit van Tokio, bieden een manier om eerlijkheid in machine learning te waarborgen. Ze hebben een algoritme bedacht dat een eerlijkheidsbeperking oplegt die vooringenomenheid voorkomt.

"Dus stel dat het goedkeuringspercentage voor creditcards van zwart-wit [klanten] niet meer dan 20 procent kan verschillen. Met dit soort beperkingen, ons algoritme kan dat nemen en de beste voorspelling geven om aan de beperking te voldoen, "zegt Shimao. "Als je het verschil van 20 procent wilt, vertel dat aan onze machine, en onze machine kan aan die beperking voldoen."

Dat vermogen om de beperking nauwkeurig te kalibreren, stelt bedrijven in staat ervoor te zorgen dat ze voldoen aan de federale non-discriminatiewetten, voegt Komiyama toe. Het algoritme van het team "stelt ons in staat om het niveau van eerlijkheid dat vereist is in deze juridische contexten strikt te controleren, ' zegt Komiya.

Corrigeren voor vooringenomenheid houdt een afweging in, Hoewel, Shimao en Komiyama noteren in de studie. Omdat de beperking van invloed kan zijn op hoe de machine andere aspecten van de gegevens leest, het kan een deel van de voorspellende kracht van de machine opofferen.

Shimao zegt dat hij graag zou zien dat bedrijven het algoritme gebruiken om de verborgen discriminatie die mogelijk op de loer ligt in hun machine learning-programma's uit te roeien. "We hopen dat het iets is dat kan worden gebruikt zodat machines kunnen worden gediscrimineerd wanneer dat nodig is."