• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un nouvel algorithme limite les biais dans l'apprentissage automatique

    Crédit :CC0 Domaine public

    L'apprentissage automatique, une forme d'intelligence artificielle basée sur l'idée que les ordinateurs peuvent apprendre à partir de données et prendre des décisions avec peu d'aide des humains, a le potentiel d'améliorer nos vies d'innombrables façons. Des voitures autonomes aux scans de mammographie qui peuvent se lire, l'apprentissage automatique transforme la vie moderne.

    Il est facile de supposer que l'utilisation d'algorithmes pour la prise de décision supprime les biais humains de l'équation. Mais les chercheurs ont découvert que l'apprentissage automatique peut produire des décisions injustes dans certains contextes, comme embaucher quelqu'un pour un emploi. Par exemple, si les données insérées dans l'algorithme suggèrent que les hommes sont plus productifs que les femmes, la machine est susceptible d'"apprendre" cette différence et de favoriser les candidats masculins par rapport aux candidats féminins, manque le biais de l'entrée. Et les managers peuvent ne pas détecter la discrimination de la machine, pensant qu'une décision automatisée est intrinsèquement neutre, entraînant des pratiques d'embauche déloyales.

    Dans un nouvel article publié dans les Actes de la 35e conférence sur l'apprentissage automatique, Hajime Shimao et Junpei Komiyama, boursier postdoctoral SFI, chercheur associé à l'Université de Tokyo, offrent un moyen d'assurer l'équité dans l'apprentissage automatique. Ils ont conçu un algorithme qui impose une contrainte d'équité qui empêche les biais.

    « Disons donc que le taux d'approbation des cartes de crédit des [clients] noirs et blancs ne peut pas différer de plus de 20 %. Avec ce genre de contrainte, notre algorithme peut prendre cela et donner la meilleure prédiction pour satisfaire la contrainte, " dit Shimao. " Si vous voulez la différence de 20 pour cent, dis ça à notre machine, et notre machine peut satisfaire cette contrainte."

    Cette capacité à calibrer précisément la contrainte permet aux entreprises de s'assurer qu'elles se conforment aux lois fédérales de non-discrimination, ajoute Komiyama. L'algorithme de l'équipe « nous permet de contrôler strictement le niveau d'équité requis dans ces contextes juridiques, " dit Komiyama.

    La correction des biais implique un compromis, bien que, Shimao et Komiyama notent dans l'étude. Parce que la contrainte peut affecter la façon dont la machine lit d'autres aspects des données, cela peut sacrifier une partie de la puissance prédictive de la machine.

    Shimao dit qu'il aimerait que les entreprises utilisent l'algorithme pour aider à éliminer la discrimination cachée qui peut se cacher dans leurs programmes d'apprentissage automatique. "Notre espoir est que ce soit quelque chose qui puisse être utilisé pour empêcher les machines de faire l'objet de discrimination chaque fois que cela est nécessaire."


    © Science https://fr.scienceaq.com