• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Les preuves révèlent que les algorithmes d'évaluation des risques montrent un biais contre la population hispanique

    Crédit :CC0 Domaine public

    L'évaluation automatisée des risques est devenue de plus en plus populaire dans le système de justice pénale, mais une nouvelle étude publiée dans le Examen du droit pénal américain évalué l'exactitude, validité et capacité prédictive d'un outil d'algorithme d'évaluation des risques pour révéler l'injustice algorithmique contre les Hispaniques.

    L'évaluation des risques peut être un moyen objectif de réduire les taux d'emprisonnement sans compromettre la sécurité publique, et les responsables de la justice pénale dépendent de plus en plus du traitement algorithmique pour éclairer les décisions sur la gestion des délinquants en fonction de leurs profils de risque. Cependant, il existe des preuves alarmantes suggérant que les algorithmes de risque sont potentiellement biaisés contre les groupes minoritaires.

    Lectrice en droit et justice pénale à l'Université de Surrey, la Dre Melissa Hamilton a utilisé un vaste ensemble de données d'accusés avant le procès qui ont été notés sur COMPAS, un outil algorithmique d'évaluation des risques largement utilisé, peu de temps après leur arrestation pour évaluer l'impact de cet algorithme. outil spécifiquement sur le groupe minoritaire hispanique.

    Le Dr Hamilton a déclaré :« Il existe une idée fausse selon laquelle les outils algorithmiques d'évaluation des risques développés à l'aide de mégadonnées représentent automatiquement un méthode cohérente et logique de classification des délinquants. Mes recherches suggèrent que les outils de gestion des risques peuvent produire des résultats inégaux pour les groupes minoritaires s'ils ne tiennent pas compte de leurs différences culturelles. Le biais se produit lorsque les outils de risque sont normés en grande partie sur un groupe, par exemple des échantillons blancs, car ils fournissent des prédictions inexactes pour les groupes minoritaires en conséquence.

    « Les preuves cumulatives ont montré que COMPAS présentait systématiquement des résultats algorithmiques injustes et biaisés pour les personnes d'origine hispanique, avec des statistiques présentant une validité différentielle et une capacité prédictive différentielle. L'outil ne parvient pas à prédire avec précision les résultats réels, surestimer par la suite le niveau de risque de récidive pour les prévenus hispaniques."

    Bien qu'il y ait eu des progrès impressionnants dans les sciences du comportement, la disponibilité du big data et de la modélisation statistique, les responsables de la justice doivent être conscients qu'une plus grande prudence est nécessaire pour s'assurer que des études de validation appropriées sont menées avant l'utilisation d'un outil de risque algorithmique, pour confirmer qu'il est acceptable pour sa population et ses sous-populations visées.


    © Science https://fr.scienceaq.com