science >> Wetenschap >  >> anders

Hoe bestudeer je gezichtsbias zonder vooringenomenheid?

Krediet:Pixabay/CC0 publiek domein

Wanneer we een onbekend gezicht tegenkomen, hebben we de neiging om snel te oordelen. Ziet de persoon er slim, aantrekkelijk of jong uit? Zijn ze betrouwbaar of corrupt? Neurowetenschappers en psychologen bestuderen hoe onze hersenen deze gezichtsafwijkingen vormen en hoe de oordelen uiteindelijk het gedrag van mensen beïnvloeden.

"We hebben de neiging om vrij veel vertrouwen te hebben in de beoordelingen die we maken op basis van de gezichten van mensen, maar we hebben het vaak mis", zegt Ralph Adolphs (Ph.D. '93), Bren Professor of Psychology, Neuroscience, and Biology en een aangesloten faculteit lid van het Tianqiao en Chrissy Chen Instituut voor Neurowetenschappen.

Eerdere studies hebben deze stereotypen en oordelen in verband gebracht met de beslissingen die mensen nemen in verschillende aspecten van de samenleving, waaronder verkiezingen, wervingspraktijken en gerechtelijke veroordelingen door jury's. Zo toonde een Caltech-studie van Adolphs en Mike Alvarez, een professor politieke wetenschappen, aan dat mensen politici corrupter vonden als ze een breder gezicht hadden, en dat deze uitspraken in dit geval samenvielen met de vraag of de politici waren veroordeeld voor corruptie in het echte leven.

"Zeer belangrijke sociale beslissingen worden beïnvloed door de snelle oordelen die we over mensen maken vanuit hun gezicht", zegt Adolphs. "Door op deze vooroordelen te wijzen, hopen we dat we hun impact kunnen verminderen."

In een recent onderzoek in het tijdschrift Nature Communications , hebben Adolphs en zijn team, onder leiding van voormalig Caltech-afgestudeerde student Chujun Lin, nu een postdoctoraal onderzoeker aan het Dartmouth College, onderzocht hoe vooroordelen over het gezicht kunnen worden opgesplitst in primaire oordelen. Op dezelfde manier dat de veelzijdige kleuren van een schilderij kunnen worden afgeleid van de primaire kleuren rood, geel en blauw, mengen onze hersenen primaire oordelen met elkaar om een ​​reeks percepties te creëren over alles, van hoe aardig een persoon is tot hun niveau van agressie.

De resultaten toonden aan dat de deelnemers aan de studie, waaronder mensen uit zeven verschillende regio's over de hele wereld, automatisch vier primaire beoordelingen maakten bij het ontmoeten van een nieuw gezicht (ongeacht of de beoordelingen juist waren of niet):ze beoordeelden of een persoon warm of koud is , competent of incompetent, vrouwelijk of mannelijk, en jong of oud. Alle andere oordelen die mensen kunnen maken, kunnen worden afgeleid uit een mix van deze vier primaire oordelen.

"Deze vier primaire oordelen liggen ten grondslag aan de vooroordelen die we hebben bij het vormen van een breed scala aan indrukken van anderen op basis van gezichten, die efficiënt kunnen worden gericht op anti-bias-interventies", legt Lin uit.

Uitdagingen bij het bestuderen van vooringenomenheid

Adolphs merkt op dat er grenzen zijn aan deze specifieke studie en vele anderen vinden het leuk. Hier gebruikten de onderzoekers bestaande databases, die grotendeels bestaan ​​uit witte gezichten met neutrale uitdrukkingen.

"De meeste databases voor dit soort onderzoeken zijn jaren geleden gebouwd, en zelfs tientallen jaren geleden", zegt Adolphs. "Er zijn meestal foto's van mensen die direct beschikbaar zijn voor de onderzoekers, maar de foto's vertegenwoordigen zeker niet de wereldbevolking."

Voor hun eerste analyse kozen Adolphs en zijn team ervoor om de stimuli te beperken tot witte gezichten met neutrale uitdrukkingen, omdat ze hierdoor andere factoren zoals context en ras konden uitsluiten. Het team werkt aan een vervolgproject dat meer diverse gezichten oplevert, waaronder gezichten van verschillende rassen die een breder scala aan uitdrukkingen vertonen.

"Het vertegenwoordigen van de diversiteit van een algemene wereldbevolking is een grote uitdaging in ons vakgebied", zegt Adolphs.

Een baanbrekende studie van de University of British Columbia over deze kwestie, zegt Adolphs, introduceerde een term die bekend staat als WEIRD, voor westerse, opgeleide, geïndustrialiseerde, rijke en democratische samenlevingen. WEIRD verwijst naar populaties van mensen die doorgaans worden gestudeerd in psychologie en sociale wetenschappen. Zoals het artikel aangeeft, is 'dit bijzonder dunne en nogal ongebruikelijke deel van de mensheid' een van de 'minst representatieve populaties die je zou kunnen vinden om te generaliseren over mensen'.

"Voor veel van onze studies werven we om deze reden geen studenten", zegt Adolphs. "Ze zijn handig, maar ze zijn natuurlijk geen representatieve demografische subsectie van de wereldbevolking. Vaak proberen we mensen uit de gemeenschap te rekruteren die meer divers zijn."

De toekomst:bias in AI

In een ander recent onderzoek van de groep van Adolphs, geleid door Caltech-postdoc Umit Keles en gepubliceerd in het tijdschrift Affective Science , the researchers looked at the question of whether artificial intelligence (AI) methods can be trained to predict how individuals will react to people's faces. They found machine-based methods could make surprisingly accurate predictions, but sometimes came up with wrong answers.

"A round face might look baby faced and kind, but also corrupt, depending on the details. Because the features in faces are so closely related to one another, you can get many kinds of misjudgments from these algorithms," says Keles. "There is a worrisome potential for misuse of these AI methods."

This past summer, a Summer Undergraduate Research Fellowship (SURF) student in Adolphs' lab, Leena Mathur, worked on a project that examined how AI models might be trained to perceive human emotions across cultures. She used videos of people talking to each other from a database created by researchers at Imperial College London. The database includes people from six cultures:British, Chinese, German, Greek, Hungarian, and Serbian. The preliminary findings suggest AI models can be trained on videos of people communicating in one cultural context and subsequently adapted to detect emotions from videos of people communicating in other cultural contexts.

"There is a field-wide effort to collect more diverse data for AI research," she says. "The goal is to ultimately develop AI systems that are inclusive and can support people across race, age, gender, culture, and every other dimension of human diversity."

Mathur, a student at USC, hopes her research will eventually contribute to AI systems that support human health and societal well-being across cultures.

"There is potential for misuse of these technologies, so it is important to research how robots and AI systems can be effectively adapted across cultural contexts for assistive applications," she says.

Adolphs says his team's lab meetings always include discussions on diversity and racism (the lab has a Diversity, Equity, and Inclusion representative, postdoc Nina Rouhani).

"It's a topic we continue to be very concerned about. We talk about all of these issues and ask ourselves, "What else can we do?" We are continuing to emphasize issues of race and representativeness in our science."