Wetenschap
Krediet:Pixabay/CC0 publiek domein
Menselijke gendervooroordelen die de wervingskansen voor vrouwen beperken, worden nagebootst en verergerd door kunstmatige intelligentie (AI) die wordt gebruikt voor het sorteren van cv's, volgens nieuw onderzoek.
De studie, in opdracht van UniBank, analyseerde hoe een panel van 40 menselijke recruiters reageerde toen exact dezelfde cv's werden gepresenteerd met verwisselde mannelijke en vrouwelijke geslachten. Het proces werd vervolgens toegepast op verschillende wervingsalgoritmen om te zien of de AI menselijke vooroordelen repliceerde.
Uit het onderzoek bleek dat het menselijke rekruteringspanel de sterkste voorbeelden van onbedoelde vooringenomenheid vertoonde, consequent de voorkeur geven aan cv's van de mannelijke kandidaten boven vrouwelijke equivalenten.
Rapporteer co-auteur en onderzoeker genderbeleid van het University's Policy Lab, Universitair hoofddocent Leah Ruppanner zei dat we weten dat meer vrouwen dan mannen hun baan hebben verloren tijdens de pandemie.
"Helaas, voor data- en financiële functies, CV's van vrouwen werden door onze menselijke panelleden lager gerangschikt dan die van mannen, hoewel ze dezelfde kwalificaties en ervaring hadden, ' zei professor Ruppanner.
Rapport co-auteur en onderzoeker digitale ethiek van het Center for AI and Digital Ethics (CAIDE), Dr. Marc Cheong zei dat de onderzoekers vervolgens algoritmen hebben ontwikkeld om de voorkeuren van het menselijke panel te repliceren.
Het onderzoek toonde aan dat zelfs basisalgoritmen onbewuste menselijke gendervooroordelen kunnen nabootsen zonder rekening te houden met de verdiensten van een kandidaat.
"Zelfs toen de namen van de kandidaten werden verwijderd, AI beoordeelde cv's op basis van historische wervingspatronen waarbij de voorkeuren uitgingen naar mannelijke kandidaten. Bijvoorbeeld, het geven van voordeel aan kandidaten met jarenlange ononderbroken dienst zou automatisch nadelig zijn voor vrouwen die verlof hebben genomen voor zorgtaken, ' zei dokter Cheong.
"Ook, in het geval van meer geavanceerde AI's die binnen een "black box" opereren zonder transparantie of menselijk toezicht, het gevaar bestaat dat elke aanvankelijke vooringenomenheid wordt versterkt."
UniBank-directeur, Mike Lanzing, zei dat naarmate het gebruik van kunstmatige intelligentie vaker voorkomt, het is belangrijk om te begrijpen hoe bestaande vooroordelen bijdragen aan zogenaamd onpartijdige modellen.
"We moeten ervoor zorgen dat we de decennialange vooruitgang op het gebied van financiële onafhankelijkheid en zekerheid van vrouwen niet terugdraaien door achterhaalde opvattingen over het soort werk waar vrouwen geschikt voor zijn, te versterken. ' zei meneer Lanzing.
Het rapport suggereerde een aantal maatregelen die vooroordelen in deze processen zouden kunnen verminderen, waaronder trainingsprogramma's voor HR-professionals en het creëren van transparante wervingsalgoritmen die zijn ontworpen om gendervooroordelen te verminderen.
Wetenschap © https://nl.scienceaq.com