• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les algorithmes de recrutement sont-ils justes ? Ils sont trop opaques pour le dire, l'étude trouve

    Crédit :CC0 Domaine public

    Le temps c'est de l'argent et, malheureusement pour les entreprises, l'embauche de nouveaux employés prend beaucoup de temps - plus d'un mois en moyenne, Des études montrent.

    Les décisions d'embauche sont également truffées de préjugés humains, conduisant certaines organisations à transférer au moins une partie de leurs recherches d'employés à des entreprises de technologie externes qui sélectionnent les candidats avec des algorithmes d'apprentissage automatique. Si les humains ont tellement de mal à trouver la meilleure solution pour leur entreprise, la pensée va, peut-être qu'une machine peut le faire mieux et plus efficacement.

    Mais de nouvelles recherches menées par une équipe d'universitaires en informatique et en sciences de l'information de l'Université Cornell soulèvent des questions sur ces algorithmes et les entreprises technologiques qui les développent et les utilisent :dans quelle mesure le processus de filtrage automatisé est-il impartial ? Comment sont construits les algorithmes ? Et par qui, vers quelle fin, et avec quelles données ?

    Ils ont découvert que les entreprises ont tendance à privilégier l'obscurité à la transparence dans ce domaine émergent, où l'absence de consensus sur des points fondamentaux – définitions formelles de « parti pris » et « équité, " pour commencer, ont permis aux entreprises technologiques de définir et de traiter les biais algorithmiques selon leurs propres termes.

    "Je pense que nous commençons à voir une reconnaissance croissante parmi les créateurs d'outils d'aide à la décision algorithmiques qu'ils doivent être particulièrement conscients de l'impact de leurs outils sur les gens, " dit Manish Raghavan, doctorant en informatique et premier auteur de « Mitigating Bias in Algorithmic Employment Screening :Evaluating Claims and Practices, " qui sera présenté en janvier à l'Association for Computing Machinery Conference on Fairness, Responsabilité et transparence.

    « De nombreux fournisseurs que nous avons rencontrés dans notre travail reconnaissent cet (impact) et prennent des mesures pour lutter contre les préjugés et la discrimination, " dit Raghavan. " Cependant, il y a un manque notable de consensus ou de direction sur exactement comment cela devrait être fait. »

    Les chercheurs ont parcouru les informations publiques disponibles pour commencer à comprendre ces outils et quelles mesures, si seulement, les entreprises ont mis en place pour évaluer et atténuer les biais algorithmiques. Protégé par les lois sur la propriété intellectuelle, les entreprises technologiques n'ont pas à divulguer d'informations sur leurs modèles algorithmiques pour les examens préalables à l'emploi, bien que certaines entreprises aient choisi d'offrir un aperçu.

    Les chercheurs se sont concentrés sur 19 fournisseurs spécialisés dans les vérifications algorithmiques préalables à l'emploi, lequel, ils ont trouvé, inclure des questions, analyse d'interview vidéo et jeux. Ils ont passé au peigne fin les sites Web des entreprises, les webinaires et tous les documents disponibles pour avoir un aperçu des réclamations et des pratiques des fournisseurs.

    Très peu de fournisseurs offrent des informations concrètes sur la façon dont ils valident leurs évaluations ou divulguent des détails sur la façon dont ils atténuent les biais algorithmiques, les chercheurs ont trouvé.

    « De nombreux fournisseurs ne font aucune mention des efforts déployés pour lutter contre les préjugés, ce qui est d'autant plus préoccupant que soit ils n'y pensent pas du tout, ou ils ne sont pas transparents sur leurs pratiques, " dit Raghavan.

    Même s'ils utilisent des termes tels que « partialité » et « équité, " ceux-ci peuvent être vagues. Un fournisseur peut prétendre que son algorithme d'évaluation est "juste" sans révéler comment l'entreprise définit l'équité.

    C'est comme des œufs "plein air", Raghavan a déclaré : Il existe un ensemble de conditions dans lesquelles les œufs peuvent être étiquetés en liberté, mais notre notion intuitive de libre parcours peut ne pas correspondre à ces conditions.

    "De la même manière, appeler un algorithme « juste » fait appel à notre compréhension intuitive du terme tout en n'obtenant qu'un résultat beaucoup plus étroit que ce que nous pourrions espérer, " il a dit.

    L'équipe espère que le document encouragera la transparence et la conversation sur ce que signifie agir de manière éthique dans ce domaine des évaluations préalables à l'emploi grâce à l'apprentissage automatique.

    Compte tenu des défis, se pourrait-il que les algorithmes ne soient tout simplement pas à la hauteur de la sélection des candidats ? Pas si vite, dit Raghavan.

    « Nous savons, grâce à des années de preuves empiriques, que les humains souffrent de divers biais lorsqu'il s'agit d'évaluer les candidats à un emploi, " dit-il. " La vraie question n'est pas de savoir si les algorithmes peuvent être rendus parfaits; au lieu, la comparaison pertinente est de savoir si elles peuvent s'améliorer par rapport à d'autres méthodes, ou dans ce cas, le statu quo humain.

    "Malgré leurs nombreux défauts, " il a dit, « les algorithmes ont le potentiel de contribuer à une société plus équitable, et des travaux supplémentaires sont nécessaires pour nous assurer que nous pouvons comprendre et atténuer les biais qu'ils apportent."

    Les co-auteurs de l'article sont Solon Barocas, professeur assistant en sciences de l'information, actuellement chez Microsoft Research; Jon Kleinberg, Professeur d'informatique à l'Université Tisch et doyen par intérim du CIS; et Karen Levy, professeur assistant en sciences de l'information.


    © Science https://fr.scienceaq.com