science >> Wetenschap >  >> Elektronica

AI-onderzoekers verbeteren methode voor het verwijderen van gendervooroordelen in machines die zijn gebouwd om tekst- of spraakgegevens te begrijpen en erop te reageren

Krediet:Pixabay/CC0 publiek domein

Onderzoekers hebben een betere manier gevonden om gendervooroordelen in modellen voor natuurlijke taalverwerking te verminderen en tegelijkertijd essentiële informatie over de betekenis van woorden te behouden, volgens een recent onderzoek dat een belangrijke stap zou kunnen zijn in de richting van het aanpakken van het probleem van menselijke vooroordelen die kunstmatige intelligentie binnensluipen.

Hoewel een computer zelf een onbevooroordeelde machine is, wordt veel van de gegevens en programmering die door computers stromen, door mensen gegenereerd. Dit kan een probleem zijn wanneer bewuste of onbewuste menselijke vooroordelen uiteindelijk worden weerspiegeld in de tekstvoorbeelden die AI-modellen gebruiken om taal te analyseren en te "begrijpen".

Computers zijn niet meteen in staat om tekst te begrijpen, legt Lei Ding uit, eerste auteur van de studie en promovendus bij de afdeling Wiskundige en statistische wetenschappen. Ze hebben woorden nodig die moeten worden omgezet in een reeks getallen om ze te begrijpen - een proces dat woordinsluiting wordt genoemd.

"Natuurlijke taalverwerking is in feite de computers leren om teksten en talen te begrijpen", zegt Bei Jiang, universitair hoofddocent bij de afdeling Wiskundige en statistische wetenschappen.

Zodra onderzoekers deze stap hebben gezet, kunnen ze woorden als getallen in een 2D-grafiek plotten en de onderlinge relaties van de woorden visualiseren. Hierdoor kunnen ze de omvang van de gendervooroordelen beter begrijpen en later bepalen of de vooringenomenheid effectief is geëlimineerd.

Alle betekenis, geen vooroordelen

Hoewel andere pogingen om gendervooroordelen in teksten te verminderen of te verwijderen tot op zekere hoogte succesvol zijn geweest, is het probleem met die benaderingen dat gendervooroordelen niet het enige zijn dat uit de teksten is verwijderd.

"In veel genderdebiasing-methoden, wanneer ze de vertekening in een woordvector verminderen, verminderen of elimineren ze ook belangrijke informatie over het woord", legt Jiang uit. Dit type informatie staat bekend als semantische informatie en biedt belangrijke contextuele gegevens die nodig kunnen zijn bij toekomstige taken met betrekking tot het insluiten van woorden.

Als onderzoekers bijvoorbeeld een woord als 'verpleegster' in overweging willen nemen, willen ze dat het systeem alle geslachtsgegevens verwijdert die aan die term zijn gekoppeld, maar toch informatie bewaart die de term koppelt aan verwante woorden zoals dokter, ziekenhuis en geneeskunde.

"We moeten die semantische informatie bewaren", zegt Ding. "Zonder dit zouden de inbeddingen zeer slechte prestaties leveren [in natuurlijke taalverwerkingstaken en -systemen]."

Snel, nauwkeurig en eerlijk

De nieuwe methodologie presteerde ook beter dan toonaangevende debiasing-methoden bij verschillende taken die werden geëvalueerd op basis van woordinbedding.

Naarmate deze wordt verfijnd, kan de methodologie een flexibel kader bieden dat andere onderzoekers kunnen toepassen op hun eigen woordinbedding. Zolang een onderzoeker advies heeft over de juiste groep woorden die moet worden gebruikt, kan de methodologie worden gebruikt om vooringenomenheid in verband met een bepaalde groep te verminderen.

Hoewel de methodologie in dit stadium nog steeds input van onderzoekers vereist, legt Ding uit dat het in de toekomst mogelijk kan zijn om een ​​soort ingebouwd systeem of filter te hebben dat automatisch gendervooroordelen in verschillende contexten kan verwijderen.

Gepubliceerd in de Proceedings of the AAAI Conference on Artificial Intelligence , maakt de nieuwe methodologie deel uit van een groter project, getiteld BIAS:Responsible AI for Gender and Ethnic Labour Market Equality, dat echte problemen probeert op te lossen.

Mensen die dezelfde vacature lezen, kunnen bijvoorbeeld anders reageren op bepaalde woorden in de beschrijving die vaak een geslachtsgebonden associatie hebben. Een systeem dat gebruikmaakt van de methodologie die Ding en zijn medewerkers hebben ontwikkeld, zou de woorden kunnen markeren die de perceptie van een potentiële sollicitant van de baan of de beslissing om te solliciteren kunnen veranderen vanwege vermeende gendervooroordelen, en alternatieve woorden voorstellen om deze vooringenomenheid te verminderen.

Hoewel veel AI-modellen en -systemen gericht zijn op het vinden van manieren om taken sneller en nauwkeuriger uit te voeren, merkt Ding op dat het werk van het team deel uitmaakt van een groeiend veld dat vooruitgang wil boeken met een ander belangrijk aspect van deze modellen en systemen.

"Mensen richten zich meer op verantwoordelijkheid en eerlijkheid binnen kunstmatige-intelligentiesystemen." + Verder verkennen

Google zet stappen om gendervooroordelen in vertaling te beteugelen