• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> La nature
    Les preuves révèlent que les algorithmes d’évaluation des risques montrent un préjugé contre la population hispanique
    Une étude menée par l'Université de Californie à Berkeley, publiée dans la revue Science, a révélé que les algorithmes d'évaluation des risques utilisés dans le système de justice pénale présentent des préjugés à l'encontre de la population hispanique. L'étude a analysé les données de plus de 20 millions d'affaires pénales et a révélé que les algorithmes étaient plus susceptibles de prédire que les accusés hispaniques commettraient de futurs crimes que les accusés blancs, même s'ils avaient des antécédents criminels similaires et d'autres facteurs de risque.

    Les résultats de l'étude ont soulevé des inquiétudes quant à l'équité et à l'exactitude des algorithmes d'évaluation des risques, qui sont de plus en plus utilisés pour prendre des décisions concernant la mise en liberté provisoire, la détermination de la peine et la libération conditionnelle. Les critiques soutiennent que ces algorithmes peuvent perpétuer les disparités raciales et ethniques dans le système de justice pénale en surestimant systématiquement le risque de récidive pour certains groupes de personnes.

    En réponse à ces préoccupations, certaines juridictions ont commencé à prendre des mesures pour remédier aux biais algorithmiques. Par exemple, la Californie a récemment adopté une loi qui exige que les algorithmes d’évaluation des risques soient audités pour détecter tout biais et qui interdit l’utilisation d’algorithmes discriminatoires sur la base de la race ou de l’origine ethnique. D’autres juridictions envisagent des mesures similaires pour garantir que les algorithmes d’évaluation des risques sont utilisés de manière juste et équitable.

    Les résultats de l’étude rappellent les dangers potentiels liés à l’utilisation d’algorithmes pour prendre des décisions concernant la vie des gens. Il est important d’examiner attentivement le potentiel de biais et de discrimination lors du développement et de l’utilisation de ces algorithmes, et de prendre des mesures pour atténuer ces risques.

    © Science https://fr.scienceaq.com