Les résultats de l'étude ont soulevé des inquiétudes quant à l'équité et à l'exactitude des algorithmes d'évaluation des risques, qui sont de plus en plus utilisés pour prendre des décisions concernant la mise en liberté provisoire, la détermination de la peine et la libération conditionnelle. Les critiques soutiennent que ces algorithmes peuvent perpétuer les disparités raciales et ethniques dans le système de justice pénale en surestimant systématiquement le risque de récidive pour certains groupes de personnes.
En réponse à ces préoccupations, certaines juridictions ont commencé à prendre des mesures pour remédier aux biais algorithmiques. Par exemple, la Californie a récemment adopté une loi qui exige que les algorithmes d’évaluation des risques soient audités pour détecter tout biais et qui interdit l’utilisation d’algorithmes discriminatoires sur la base de la race ou de l’origine ethnique. D’autres juridictions envisagent des mesures similaires pour garantir que les algorithmes d’évaluation des risques sont utilisés de manière juste et équitable.
Les résultats de l’étude rappellent les dangers potentiels liés à l’utilisation d’algorithmes pour prendre des décisions concernant la vie des gens. Il est important d’examiner attentivement le potentiel de biais et de discrimination lors du développement et de l’utilisation de ces algorithmes, et de prendre des mesures pour atténuer ces risques.