science >> Wetenschap >  >> Elektronica

Ontwerpaanpak kan vooroordelen in kunstmatige intelligentie helpen oplossen

Krediet:North Carolina State University

Bias in kunstmatige intelligentie (AI) en machine learning-programma's is goed ingeburgerd. Onderzoekers van de North Carolina State University en de Pennsylvania State University stellen nu voor dat softwareontwikkelaars het concept van 'feministisch ontwerpdenken' in hun ontwikkelingsproces opnemen als een manier om de rechtvaardigheid te verbeteren, met name bij de ontwikkeling van software die wordt gebruikt bij het wervingsproces.

"Er lijken talloze verhalen te zijn over manieren waarop vooringenomenheid in AI zich manifesteert, en er zijn veel gedachten over wat bijdraagt ​​aan deze vooringenomenheid, " zegt Fay Payton, een professor in informatiesystemen / technologie en University Faculty Scholar bij NC State. "Ons doel hier was om richtlijnen voor te stellen die kunnen worden gebruikt om werkbare oplossingen te ontwikkelen voor de vooroordelen van algoritmen tegen vrouwen, Afro-Amerikaanse en Latinx-beroepen in het IT-personeel.

"Te veel bestaande wervingsalgoritmen bevatten de facto identiteitsmarkeringen die gekwalificeerde kandidaten uitsluiten vanwege hun geslacht, ras, etniciteit, leeftijd enzovoort, " zegt Payton, die mede-hoofdauteur is van een paper over het werk. "We zijn gewoon op zoek naar gelijkheid - dat sollicitanten op gelijke voet kunnen deelnemen aan het wervingsproces."

Payton en haar medewerkers stellen dat een benadering die feministisch ontwerpdenken wordt genoemd, zou kunnen dienen als een waardevol raamwerk voor het ontwikkelen van software die algoritmische vooringenomenheid op een zinvolle manier vermindert. In deze context, de toepassing van feministisch ontwerpdenken zou betekenen dat het idee van gelijkheid wordt opgenomen in het ontwerp van het algoritme zelf.

"Het compliceren van de effecten van algoritmische vooringenomenheid is de historische ondervertegenwoordiging van vrouwen, Black en Latinx software-ingenieurs om nieuwe inzichten te bieden met betrekking tot rechtvaardige ontwerpbenaderingen op basis van hun geleefde ervaringen, " zegt Lynette Yarger, co-hoofdauteur van het artikel en een universitair hoofddocent informatiewetenschappen en technologie aan Penn State.

"Eigenlijk, deze benadering zou betekenen dat er algoritmen worden ontwikkeld die inclusie en gelijkheid over gender waarderen, ras en etniciteit, Payton zegt. "De praktische toepassing hiervan is de ontwikkeling en implementatie van een proces voor het maken van algoritmen waarin ontwerpers een publiek overwegen dat vrouwen omvat, waaronder zwarte mensen, dat omvat Latinx-mensen. Eigenlijk, ontwikkelaars van alle achtergronden zouden worden opgeroepen om actief rekening te houden met - en waarde te hechten aan - mensen die anders zijn dan zijzelf.

"Om duidelijk te zijn, het gaat er niet alleen om iets te doen omdat het moreel correct is. Maar we weten dat vrouwen, Afro-Amerikanen en Latinx-mensen zijn ondervertegenwoordigd op IT-gebied. En er is voldoende bewijs dat een diverse, inclusief personeel verbetert de bedrijfsresultaten, ", zegt Payton. "Als je het juiste kunt doen en je winstmarge kunt verbeteren, waarom zou je niet?"