Crédit :CC0 Domaine public
Une nouvelle étude de la faculté de droit de l'Université de New York et de l'AI Now Institute de NYU conclut que les systèmes de police prédictifs courent le risque d'exacerber la discrimination dans le système de justice pénale s'ils s'appuient sur des « données sales ».
Les forces de l'ordre ont fait l'objet d'un examen minutieux ces dernières années pour des pratiques entraînant une agression disproportionnée envers des suspects appartenant à des minorités, amenant certains à se demander si la technologie - en particulier, logiciel de police prédictive – pourrait diminuer les actions discriminatoires.
Cependant, une nouvelle étude de la New York University School of Law et de l'AI Now Institute de NYU conclut que les systèmes de police prédictifs, En réalité, courent le risque d'exacerber la discrimination dans le système de justice pénale s'ils s'appuient sur des « données sales » – des données créées à partir de données erronées, partialité raciale, et parfois des pratiques illégales.
Les chercheurs illustrent ce phénomène avec des données d'études de cas de Chicago, La Nouvelle Orléans, et le comté de Maricopa en Arizona. Leur papier, "Données sales, Mauvaises prédictions :comment les violations des droits civiques affectent les données de la police, Systèmes de police prédictive, et Justice, " est disponible sur SSRN.
« Nous avons choisi ces sites parce que nous avons trouvé un chevauchement entre des preuves largement documentées de pratiques policières corrompues ou illégales et un intérêt important, développement, et l'utilisation actuelle ou antérieure de systèmes de police prédictifs. Cela nous a conduit à examiner les risques que l'un influence l'autre, " explique Jason Schultz, un professeur de droit clinique et l'un des co-auteurs de l'article.
Les auteurs, qui incluent Rashida Richardson, directeur de la recherche sur les politiques à l'AI Now Institute, et Kate Crawford, co-directeur de l'AI Now Institute, a identifié 13 juridictions (y compris les études de cas susmentionnées) avec des cas documentés de pratiques policières illégales ou biaisées qui ont également exploré ou déployé des systèmes de police prédictifs pendant les périodes d'activité illégale.
Le département de police de Chicago, par exemple, faisait l'objet d'une enquête fédérale pour pratiques policières illégales lorsqu'elle a mis en place un système informatisé qui identifie les personnes risquant de devenir une victime ou un délinquant dans une fusillade ou un homicide. L'étude a révélé que le même groupe démographique de résidents qui avait été identifié par le ministère de la Justice comme cibles du biais policier de Chicago se chevauchait avec ceux qui avaient été identifiés par le système prédictif.
D'autres exemples ont montré des risques importants de chevauchement, mais parce que l'utilisation par le gouvernement de systèmes de police prédictifs est souvent secrète et cachée de la surveillance publique, l'étendue des risques reste inconnue, selon l'étude.
« Dans les juridictions qui ont des antécédents bien établis de pratiques policières corrompues, il existe un risque important que les données générées par de telles pratiques puissent corrompre les systèmes informatiques prédictifs. Dans de telles circonstances, une surveillance et une responsabilité publiques solides sont essentielles, " a déclaré Schultz.
L'auteur principal Richardson a ajouté :« Même si cette étude se limitait aux juridictions ayant des antécédents bien établis d'inconduite policière et de pratiques policières discriminatoires, nous savons que ces préoccupations concernant les pratiques et politiques policières ne se limitent pas à ces juridictions, un examen plus approfondi des données utilisées dans les technologies de police prédictive est donc nécessaire à l'échelle mondiale. »