• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'approche de conception peut aider à corriger les biais dans l'intelligence artificielle

    Crédit :Université d'État de Caroline du Nord

    Les biais dans les programmes d'intelligence artificielle (IA) et d'apprentissage automatique sont bien établis. Des chercheurs de l'Université d'État de Caroline du Nord et de l'Université d'État de Pennsylvanie proposent maintenant que les développeurs de logiciels intègrent le concept de « pensée conceptuelle féministe » dans leur processus de développement afin d'améliorer l'équité, en particulier dans le développement de logiciels utilisés dans le processus d'embauche.

    "Il semble y avoir d'innombrables histoires de façons dont les biais dans l'IA se manifestent, et il existe de nombreuses réflexions sur ce qui contribue à ce biais, " dit Fay Payton, professeur de systèmes d'information/technologie et chercheur universitaire à l'État de Caroline du Nord. « Notre objectif ici était de proposer des lignes directrices pouvant être utilisées pour développer des solutions viables aux biais des algorithmes contre les femmes, Professions afro-américaines et latines dans la main-d'œuvre informatique.

    "Trop d'algorithmes de recrutement existants intègrent des marqueurs d'identité de facto qui excluent les candidats qualifiés en raison de leur sexe, course, ethnie, âge et ainsi de suite, " dit Payton, qui est co-auteur principal d'un article sur l'œuvre. « Nous recherchons simplement l'équité – que les candidats à un poste puissent participer au processus d'embauche sur un pied d'égalité. »

    Payton et ses collaborateurs soutiennent qu'une approche appelée design thinking féministe pourrait servir de cadre précieux pour le développement de logiciels qui réduisent les biais algorithmiques de manière significative. Dans ce contexte, l'application du design thinking féministe reviendrait à incorporer l'idée d'équité dans la conception de l'algorithme lui-même.

    " Aux effets du biais algorithmique s'ajoute la sous-représentation historique des femmes, Ingénieurs logiciels Black et Latinx pour fournir de nouvelles idées sur les approches de conception équitables basées sur leurs expériences vécues, " dit Lynette Yarger, co-auteur principal de l'article et professeur agrégé de sciences et technologies de l'information à Penn State.

    "Essentiellement, cette approche signifierait développer des algorithmes qui valorisent l'inclusion et l'équité entre les sexes, race et ethnie, " Payton dit. " L'application pratique de ceci est le développement et la mise en œuvre d'un processus de création d'algorithmes dans lequel les concepteurs envisagent un public comprenant des femmes, qui inclut les Noirs, cela inclut les personnes Latinx. Essentiellement, les développeurs de tous horizons seraient appelés à considérer activement – ​​et à valoriser – les personnes différentes d'eux-mêmes.

    "Pour être clair, il ne s'agit pas seulement de faire quelque chose parce que c'est moralement correct. Mais nous savons que les femmes, Les Afro-Américains et les Latinx sont sous-représentés dans les domaines informatiques. Et il est amplement prouvé qu'une diversité, une main-d'œuvre inclusive améliore les résultats d'une entreprise, " dit Payton. " Si vous pouvez faire ce qu'il faut et améliorer votre marge bénéficiaire, pourquoi pas toi ?"


    © Science https://fr.scienceaq.com