Crédit :Pixabay/CC0 domaine public
Les préjugés humains liés au genre qui limitent les opportunités de recrutement pour les femmes sont imités et exacerbés par l'intelligence artificielle (IA) utilisée pour trier les CV, selon de nouvelles recherches.
L'étude, commandé par UniBank, ont analysé comment un panel de 40 recruteurs humains a réagi lorsque les mêmes curriculum vitae étaient présentés avec des genres masculins et féminins échangés. Le processus a ensuite été appliqué à différents algorithmes de recrutement pour voir si l'IA reproduisait les biais humains.
La recherche a révélé que le panel de recrutement humain a démontré les exemples les plus forts de biais non intentionnels, préférant systématiquement les curriculum vitae des candidats masculins aux équivalents féminins.
Co-auteur du rapport et chercheuse en politiques de genre du Policy Lab de l'Université, La professeure agrégée Leah Ruppanner a déclaré que nous savons que plus de femmes que d'hommes ont perdu leur emploi pendant la pandémie.
"Malheureusement, pour les fonctions data et finance, les CV des femmes ont été classés moins bien que les hommes par nos panélistes humains bien qu'ils aient les mêmes qualifications et la même expérience, " a déclaré le professeur Ruppanner.
Co-auteur du rapport et chercheur en éthique numérique du Center for AI and Digital Ethics (CAIDE), Le Dr Marc Cheong a déclaré que des algorithmes avaient ensuite été développés par les chercheurs pour reproduire les préférences du panel humain.
La recherche a montré que même des algorithmes de base pouvaient imiter les préjugés sexistes humains inconscients sans prendre en compte les mérites d'un candidat.
« Même lorsque les noms des candidats ont été supprimés, AI a évalué les curriculum vitae en fonction des modèles d'embauche historiques où les préférences penchaient vers les candidats masculins. Par exemple, donner un avantage aux candidats ayant des années de service continu désavantagerait automatiquement les femmes qui ont pris congé pour des responsabilités familiales, " a déclaré le Dr Cheong.
"Aussi, dans le cas d'IA plus avancées qui opèrent dans une « boîte noire » sans transparence ni surveillance humaine, il y a un danger que toute quantité de biais initial soit amplifiée. »
Directeur général d'UniBank, Mike Lanzing, dit que l'utilisation de l'intelligence artificielle devient plus courante, il est important de comprendre comment les biais existants alimentent des modèles prétendument impartiaux.
« Nous devons veiller à ne pas inverser des décennies de progrès vers l'indépendance et la sécurité financières des femmes en renforçant des attitudes dépassées concernant le type de travail auquel les femmes sont adaptées, ", a déclaré M. Lanzing.
Le rapport a suggéré un certain nombre de mesures qui pourraient réduire les préjugés dans ces processus, notamment des programmes de formation pour les professionnels des ressources humaines et la création d'algorithmes de recrutement transparents conçus pour réduire les préjugés sexistes.