science >> Wetenschap >  >> Elektronica

Zijn wervingsalgoritmen eerlijk? Ze zijn te ondoorzichtig om te vertellen, studie vondsten

Krediet:CC0 Publiek Domein

Tijd is geld en helaas voor bedrijven, het aannemen van nieuwe medewerkers kost veel tijd - gemiddeld meer dan een maand, uit onderzoek blijkt.

Aanwervingsbeslissingen zitten ook vol menselijke vooroordelen, waardoor sommige organisaties ten minste een deel van de zoekopdrachten van hun werknemers overlaten aan externe technologiebedrijven die sollicitanten screenen met algoritmen voor machine learning. Als mensen het zo moeilijk hebben om de beste match voor hun bedrijf te vinden, het denken gaat, misschien kan een machine het beter en efficiënter doen.

Maar nieuw onderzoek van een team van informatica- en informatiewetenschappen aan de Cornell University roept vragen op over die algoritmen en de technologiebedrijven die ze ontwikkelen en gebruiken:hoe onbevooroordeeld is het geautomatiseerde screeningproces? Hoe zijn de algoritmen gebouwd? En door wie, naar welk einde, en met welke gegevens?

Ze ontdekten dat bedrijven de neiging hebben om onduidelijkheid te verkiezen boven transparantie in dit opkomende gebied, waar gebrek aan consensus over fundamentele punten - formele definities van "bias" en "fairness, " om te beginnen - hebben technologiebedrijven in staat gesteld om algoritmische vooroordelen op hun eigen voorwaarden te definiëren en aan te pakken.

"Ik denk dat we onder makers van algoritmische besluitvormingstools een groeiende erkenning beginnen te zien dat ze vooral moeten weten hoe hun tools mensen beïnvloeden, " zei Manish Raghavan, een doctoraalstudent in computerwetenschappen en eerste auteur van "Mitigating Bias in Algorithmic Employment Screening:Evaluating Claims and Practices, " zal in januari worden gepresenteerd op de Association for Computing Machinery Conference on Fairness, Verantwoording en transparantie.

"Veel van de leveranciers die we in ons werk hebben ontmoet, erkennen dit (impact) en ze nemen stappen om vooroordelen en discriminatie aan te pakken, " zei Raghavan. "Echter, er is een opmerkelijk gebrek aan consensus of richting over hoe dit precies moet gebeuren."

De onderzoekers speurden beschikbare openbare informatie af om deze tools te begrijpen en welke maatregelen, indien van toepassing, bedrijven hebben om algoritmische vooringenomenheid te evalueren en te verminderen. Afgeschermd door intellectuele eigendomsrechten, technologiebedrijven hoeven geen informatie vrij te geven over hun algoritmische modellen voor pre-employment screenings, hoewel sommige bedrijven ervoor kozen om inzicht te bieden.

De onderzoekers gingen in op 19 leveranciers die gespecialiseerd zijn in algoritmische pre-employment screenings, die, ze vonden, vragen opnemen, analyse van video-interviews en games. Ze kamden bedrijfswebsites uit, webinars en alle beschikbare documenten voor inzicht in claims en praktijken van leveranciers.

Zeer weinig leveranciers bieden concrete informatie over hoe ze hun beoordelingen valideren of onthullen details over hoe ze algoritmische vooringenomenheid verminderen, onderzoekers gevonden.

"Veel leveranciers maken geen melding van inspanningen om vooringenomenheid te bestrijden, wat vooral zorgwekkend is, omdat ze er ofwel helemaal niet aan denken, of ze zijn niet transparant over hun praktijken, ' zei Raghavan.

Zelfs als ze termen gebruiken als "bias" en "fairness, " deze kunnen vaag zijn. Een leverancier kan beweren dat zijn beoordelingsalgoritme "redelijk" is zonder te onthullen hoe het bedrijf eerlijkheid definieert.

Het zijn net "scharreleieren" Raghavan zei:Er is een reeks voorwaarden waaronder eieren als vrije uitloop kunnen worden bestempeld, maar onze intuïtieve notie van vrije uitloop komt mogelijk niet overeen met die voorwaarden.

"Op dezelfde manier, een algoritme 'redelijk' noemen, appelleert aan ons intuïtieve begrip van de term, terwijl het slechts een veel beperkter resultaat oplevert dan we zouden hopen, " hij zei.

Het team hoopt dat de paper transparantie en conversatie zal aanmoedigen over wat het betekent om ethisch te handelen in dit domein van pre-employment assessments door middel van machine learning.

Gezien de uitdagingen, zou het kunnen dat algoritmen gewoon niet geschikt zijn voor het screenen van sollicitanten? Niet zo snel, zei Raghavan.

"We weten uit jaren van empirisch bewijs dat mensen last hebben van verschillende vooroordelen als het gaat om het evalueren van sollicitanten, " zei hij. "De echte vraag is niet of algoritmen perfect kunnen worden gemaakt; in plaats daarvan, de relevante vergelijking is of ze kunnen verbeteren ten opzichte van alternatieve methoden, of in dit geval de menselijke status-quo.

"Ondanks hun vele gebreken, " hij zei, "algoritmen hebben het potentieel om bij te dragen aan een meer rechtvaardige samenleving, en er is meer werk nodig om ervoor te zorgen dat we de vooroordelen die ze met zich meebrengen, kunnen begrijpen en verminderen."

De co-auteurs van de krant zijn Solon Barocas, assistent-hoogleraar informatica, momenteel bij Microsoft Research; Jon Kleinberg, Tisch Universiteitshoogleraar Informatica en interim-decaan CIS; en Karen Levy, assistent-hoogleraar informatica.