science >> Wetenschap >  >> Elektronica

Kunstmatige intelligentie heeft een probleem met gendervooroordelen - vraag het maar aan Siri

Seksistische stereotypen spelen zich af in de wereld van kunstmatige intelligentie. Krediet:yavi/Shutterstock

Stel Samsung's Virtual Personal Assistant Bixby voor "Let's talk dirty", en de vrouwenstem zal reageren met een honingzoet accent:"Ik wil niet op de stoute lijst van de kerstman eindigen."

Stel dezelfde vraag aan de mannelijke stem van het programma en het antwoordt:"Ik heb gelezen dat bodemerosie een echt vuilprobleem is."

In Zuid Afrika, waar ik woon en mijn onderzoek doe naar gendervooroordelen in kunstmatige intelligentie, Samsung biedt Bixby nu in verschillende stemmen aan, afhankelijk van de taal die je kiest. Voor Amerikaans Engels, daar is Julia, Stefanie, Lisa en Johannes. De stemmen van Julia, Lisa en Stephanie zijn koket en gretig. John is slim en recht door zee.

Virtuele persoonlijke assistenten, zoals Bixby, Alexa (Amazone), Siri (Apple) en Cortana (Microsoft) - lopen voorop op het gebied van verhandelbare kunstmatige intelligentie (AI). AI verwijst naar het gebruik van technologische systemen om taken uit te voeren die mensen gewoonlijk zouden doen.

Ze functioneren als een applicatie op een smart device, reageren op spraakopdrachten door middel van natuurlijke taalverwerking. Hun alomtegenwoordigheid over de hele wereld neemt snel toe. Een recent rapport van UNESCO schatte dat we volgend jaar al meer gesprekken zullen hebben met onze virtuele persoonlijke assistenten dan met onze echtgenoten.

Nog, zoals ik heb onderzocht in mijn eigen onderzoek met Dr. Nora Ni Loideain van het Information Law and Policy Centre aan de Universiteit van Londen, deze technologieën verraden kritische gendervooroordelen.

Met hun vrouwelijke namen, stemmen en geprogrammeerde flirterigheid, het ontwerp van virtuele persoonlijke assistenten reproduceert discriminerende stereotypen van vrouwelijke secretaresses die, volgens het genderstereotype, is vaak meer dan alleen een secretaresse van haar mannelijke baas.

Het versterkt ook de rol van vrouwen als secundair en onderdanig aan mannen. Deze AI-assistenten werken op commando van hun gebruiker. Ze hebben niet het recht om deze bevelen te weigeren. Ze zijn alleen geprogrammeerd om te gehoorzamen. Bediscussieerbaar, ze wekken ook verwachtingen over hoe echte vrouwen zich zouden moeten gedragen.

Het doel van deze assistenten is om hun gebruiker ook te verlossen van klein werk zoals het maken van afspraken en het online kopen van artikelen. Dit is op minstens twee fronten problematisch:het suggereert dat de gebruiker meer tijd heeft voor zogenaamd belangrijker werk. Ten tweede, het maakt een kritische uitspraak over de waarde van het soort secretariaatswerk dat wordt verricht, eerst door echte vrouwen en nu door gedigitaliseerde vrouwen, in de digitale toekomst.

"Wat heb je aan?"

Een van de meer openlijke manieren waarop deze vooroordelen duidelijk zijn, is het gebruik van vrouwelijke namen:Siri en Cortana, bijvoorbeeld. Siri is een Noordse naam en betekent "de mooie vrouw die je naar de overwinning leidt".

Cortana ontleent zijn naam (evenals visuals en stem) aan de gameserie Halo. in Halo, Cortana is ontstaan ​​uit een kloon van de hersenen van een succesvolle vrouwelijke wetenschapper getrouwd met een transparant en sterk geseksualiseerd vrouwelijk lichaam. Ze fungeert als een fictieve assistent voor gamers met haar bescheiden intelligentie en hypnotiserende vorm.

Naast hun vrouwelijke stemmen, alle virtuele persoonlijke assistenten die tegenwoordig op de markt zijn, hebben een standaard vrouwenstem, die, zoals Bixby, is geprogrammeerd om te reageren op allerlei suggestieve vragen en opmerkingen. Deze vragen zijn onder meer:​​"Wat draag je?" Siri's antwoord is:"Waarom zou ik iets dragen?"

Alexa, In de tussentijd, grappen:"Ze maken geen kleren voor mij"; en Cortana antwoordt, "Gewoon iets dat ik in de techniek heb opgepikt."

Bias en discriminatie in AI

Er wordt steeds meer erkend dat AI-systemen vaak bevooroordeeld zijn, vooral langs ras- en geslachtslijnen. Bijvoorbeeld, de recente ontwikkeling van het wervingsalgoritme door Amazon om cv's voor sollicitaties te sorteren, vertoonde gendervooroordelen door cv's met het woord 'vrouwen' of verwijzingen naar vrouwencolleges te verlagen. Omdat het algoritme was getraind op historische gegevens en de preferentiële rekrutering van mannen, het kon uiteindelijk niet worden gerepareerd en moest worden verwijderd.

Zoals onderzoek heeft uitgewezen, er is een cruciaal verband tussen de ontwikkeling van AI-systemen die gendervooroordelen vertonen en het gebrek aan vrouwen in teams die ze ontwerpen.

Maar er is wat minder erkenning voor de manieren waarop AI-producten stereotiepe representaties van gender in hun ontwerp opnemen. Voor AI Nu, een toonaangevende onderzoeksinstelling die de maatschappelijke impact van AI onderzoekt, er is een duidelijk verband tussen de door mannen gedomineerde AI-industrie en de discriminerende systemen en producten die zij produceert.

De rol van onderzoekers is om deze verbanden zichtbaar te maken en de cruciale verbanden tussen de representaties van vrouwen, of het nu gaat om culturele of technologische producten, en de behandeling van vrouwen in de echte wereld.

AI is de leidende technologie in de zogenaamde Vierde Industriële Revolutie. Het verwijst naar de technologische vooruitgang - van biotechnologie, tot AI en big data - die de wereld zoals we die kennen in snel tempo hervormen. Terwijl Zuid-Afrika zich blijft bezighouden met de beloften en valkuilen van wat dit inhoudt, het zal steeds belangrijker worden om na te denken en aan te pakken hoe de technologieën die deze veranderingen aansturen, vrouwen kunnen beïnvloeden.

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.