Crédit :Pixabay/CC0 Domaine public
Lorsque nous rencontrons un visage inconnu, nous avons tendance à porter des jugements rapides. La personne a-t-elle l'air intelligente, attirante ou jeune ? Sont-ils dignes de confiance ou corrompus ? Les neuroscientifiques et les psychologues étudient comment notre cerveau forme ces biais faciaux et comment les jugements influencent finalement la façon dont les gens se comportent.
"Nous avons tendance à être assez confiants dans les jugements que nous portons sur la base des visages des gens, mais nous nous trompons souvent", déclare Ralph Adolphs (Ph.D. '93), professeur Bren de psychologie, neurosciences et biologie et une faculté affiliée membre de l'Institut Tianqiao et Chrissy Chen pour les neurosciences.
Des études antérieures ont lié ces stéréotypes et jugements aux décisions que les gens prennent dans divers aspects de la société, y compris les élections, les pratiques d'embauche et les condamnations par des jurys. Par exemple, une étude Caltech d'Adolphs et Mike Alvarez, professeur de sciences politiques, a montré que les gens jugeaient les politiciens plus corrompus s'ils avaient des visages plus larges, et que, dans ce cas, ces jugements coïncidaient avec la question de savoir si les politiciens avaient été reconnus coupables de la corruption dans la vraie vie.
"Des décisions sociales très importantes sont influencées par les jugements instantanés que nous portons sur les gens à partir de leur visage", explique Adolphs. "En pointant ces biais, nous espérons pouvoir réduire leur impact."
Dans une étude récente de la revue Nature Communications , Adolphs et son équipe, dirigée par l'ancien étudiant diplômé de Caltech Chujun Lin, maintenant stagiaire postdoctoral au Dartmouth College, ont examiné comment les préjugés faciaux peuvent être décomposés en jugements principaux. De la même manière que les couleurs à multiples facettes d'une peinture peuvent être dérivées des couleurs primaires du rouge, du jaune et du bleu, nos cerveaux mélangent les jugements primaires pour créer un éventail de perceptions sur tout, de la gentillesse d'une personne à son niveau de agression.
Les résultats ont montré que les participants à l'étude, qui comprenaient des personnes de sept régions différentes à travers le monde, ont automatiquement émis quatre jugements principaux lorsqu'ils rencontraient un nouveau visage (indépendamment du fait que les jugements étaient exacts ou non) :ils évaluaient si une personne était chaude ou froide. , compétent ou incompétent, féminin ou masculin, jeune ou vieux. Tous les autres jugements que les gens peuvent faire peuvent être dérivés d'un mélange de ces quatre jugements principaux.
"Ces quatre jugements principaux sous-tendent les préjugés que nous avons lorsque nous formons un large éventail d'impressions d'autrui sur la base des visages, qui pourraient être ciblés efficacement pour des interventions anti-biais", explique Lin.
Les défis de l'étude des biais
Adolphs note qu'il y a des limites à cette étude particulière et à bien d'autres comme elle. Ici, les chercheurs ont utilisé des bases de données existantes, qui sont en grande partie composées de visages blancs aux expressions neutres.
"La plupart des bases de données pour ces types d'études ont été construites il y a des années, voire des décennies", explique Adolphs. "Il y a généralement des photos de personnes facilement accessibles aux enquêteurs, mais les photos ne représentent certainement pas la population mondiale."
Pour leur analyse initiale, Adolphs et son équipe ont choisi de limiter les stimuli aux visages blancs aux expressions neutres car cela leur permettait d'exclure d'autres facteurs tels que le contexte et la race. L'équipe travaille sur un projet de suivi qui apporte des visages plus diversifiés, y compris des visages de différentes races qui présentent un plus large éventail d'expressions.
"Représenter la diversité d'une population mondiale générale est un grand défi dans notre domaine", déclare Adolphs.
Une étude fondamentale de l'Université de la Colombie-Britannique sur la question, dit Adolphs, a introduit un terme connu sous le nom de WEIRD, pour les sociétés occidentales, éduquées, industrialisées, riches et démocratiques. WEIRD fait référence à des populations de personnes généralement étudiées en psychologie et en sciences sociales. Comme le souligne l'article, "cette tranche particulièrement mince et plutôt inhabituelle de l'humanité" est l'une des "populations les moins représentatives que l'on puisse trouver pour généraliser sur les humains".
"Pour beaucoup de nos études, nous ne recrutons pas d'étudiants pour cette raison", explique Adolphs. "Ils sont pratiques, mais ils ne sont bien sûr pas une sous-section démographique représentative de la population mondiale. Souvent, nous essayons de recruter des personnes de la communauté qui sont plus diversifiées."
L'avenir :biais dans l'IA
Dans une autre étude récente du groupe d'Adolphs, dirigée par le post-doctorant de Caltech Umit Keles et publiée dans la revue Affective Science , the researchers looked at the question of whether artificial intelligence (AI) methods can be trained to predict how individuals will react to people's faces. They found machine-based methods could make surprisingly accurate predictions, but sometimes came up with wrong answers.
"A round face might look baby faced and kind, but also corrupt, depending on the details. Because the features in faces are so closely related to one another, you can get many kinds of misjudgments from these algorithms," says Keles. "There is a worrisome potential for misuse of these AI methods."
This past summer, a Summer Undergraduate Research Fellowship (SURF) student in Adolphs' lab, Leena Mathur, worked on a project that examined how AI models might be trained to perceive human emotions across cultures. She used videos of people talking to each other from a database created by researchers at Imperial College London. The database includes people from six cultures:British, Chinese, German, Greek, Hungarian, and Serbian. The preliminary findings suggest AI models can be trained on videos of people communicating in one cultural context and subsequently adapted to detect emotions from videos of people communicating in other cultural contexts.
"There is a field-wide effort to collect more diverse data for AI research," she says. "The goal is to ultimately develop AI systems that are inclusive and can support people across race, age, gender, culture, and every other dimension of human diversity."
Mathur, a student at USC, hopes her research will eventually contribute to AI systems that support human health and societal well-being across cultures.
"There is potential for misuse of these technologies, so it is important to research how robots and AI systems can be effectively adapted across cultural contexts for assistive applications," she says.
Adolphs says his team's lab meetings always include discussions on diversity and racism (the lab has a Diversity, Equity, and Inclusion representative, postdoc Nina Rouhani).
"It's a topic we continue to be very concerned about. We talk about all of these issues and ask ourselves, "What else can we do?" We are continuing to emphasize issues of race and representativeness in our science."