Crédit :Rene Böhmer sur Unsplash
La police en "première ligne" de jugements difficiles basés sur les risques teste un système d'IA formé par des criminologues de l'Université de Cambridge pour donner des conseils en utilisant les résultats de cinq ans d'antécédents criminels.
"Il est 3h du matin samedi matin. L'homme devant vous a été pris en possession de drogue. Il n'a pas d'armes, et aucune trace de crimes violents ou graves. Laissez-vous l'homme sous caution par la police le lendemain matin, ou le garder enfermé pendant deux jours pour s'assurer qu'il vienne au tribunal le lundi ? »
Le genre de scénario décrit par le Dr Geoffrey Barnes – qu'il s'agisse de détenir un suspect en garde à vue ou de le libérer sous caution – se produit des centaines de milliers de fois par an à travers le Royaume-Uni. L'issue de cette décision pourrait être majeure pour le suspect, pour la sécurité publique et pour la police.
« Les policiers qui prennent ces décisions de garde à vue sont très expérimentés, " explique Barnes. " Mais toutes leurs connaissances et compétences policières ne peuvent pas leur dire la seule chose dont ils ont le plus besoin maintenant sur le suspect - quelle est la probabilité qu'il ou elle cause un préjudice majeur s'ils sont libérés ? C'est un travail qui fait vraiment peur aux gens - ils sont en première ligne de la prise de décision basée sur les risques."
Barnes et le professeur Lawrence Sherman, qui dirige le Jerry Lee Center for Experimental Criminology à l'Institut de criminologie de l'Université de Cambridge, ont travaillé avec les forces de police du monde entier pour demander si l'IA peut aider.
"Imaginez une situation où l'officier a le bénéfice de cent mille, et plus, de vraies expériences antérieures de décisions de garde ?" dit Sherman. « Personne ne peut avoir autant d'expériences, mais une machine le peut."
Mi-2016, avec le financement du Monument Trust, les chercheurs ont installé le premier outil d'IA au monde pour aider la police à prendre des décisions en matière de détention à Durham Constabulary.
Appelé l'outil d'évaluation des risques de préjudice (HART), la technologie basée sur l'IA utilise 104, 000 histoires de personnes précédemment arrêtées et traitées dans les suites de détention de Durham au cours des cinq dernières années, avec un suivi de deux ans pour chaque décision de garde. En utilisant une méthode appelée "forêts aléatoires", le modèle examine un grand nombre de combinaisons de « valeurs prédictives », dont la majorité se concentre sur les antécédents criminels du suspect, ainsi que l'âge, genre et zone géographique.
"Ces variables sont combinées de milliers de manières différentes avant qu'une conclusion finale prévue ne soit atteinte, " explique Barnes. " Imaginez un humain tenant ce nombre de variables dans sa tête, et faire toutes ces connexions avant de prendre une décision. Nos esprits ne peuvent tout simplement pas le faire."
L'objectif de HART est de déterminer si, au cours des deux prochaines années, un délinquant présente un risque élevé (fortement susceptible de commettre une nouvelle infraction grave telle qu'un meurtre, violences aggravées, crimes sexuels ou vol); risque modéré (susceptible de commettre une infraction sans gravité); ou à faible risque (peu susceptible de commettre une infraction).
"La nécessité d'une bonne prédiction n'est pas seulement d'identifier les personnes dangereuses, " explique Sherman. " Il s'agit aussi d'identifier les personnes qui ne sont définitivement pas dangereuses. Pour chaque cas de suspect sous caution qui tue quelqu'un, il y a des dizaines de milliers de suspects non violents qui sont enfermés plus longtemps que nécessaire."
La police de Durham souhaite identifier le groupe à «risque modéré» – qui représente un peu moins de la moitié de tous les suspects selon les statistiques générées par HART. Ces personnes pourraient bénéficier de leur programme Checkpoint, qui vise à s'attaquer aux causes profondes de la délinquance et à offrir une alternative aux poursuites qui, ils l'espèrent, transformeront les risques modérés en risques faibles.
"Ce sont des aiguilles et des meules de foin, " dit Sherman. " D'une part, les "aiguilles" dangereuses sont trop rares pour que quiconque puisse les rencontrer assez souvent pour les repérer à vue. De l'autre, le « foin » ne pose aucune menace et les garder en détention gaspille des ressources et peut même faire plus de mal que de bien. » Un essai contrôlé randomisé est actuellement en cours à Durham pour tester l'utilisation de Checkpoint parmi ceux qui présentent un risque modéré.
HART est également actualisé avec des données plus récentes - une étape qui, selon Barnes, sera une partie importante de ce type d'outil :« Un décideur humain peut s'adapter immédiatement à un contexte changeant - comme une hiérarchisation de certaines infractions, comme le crime de haine - mais on ne peut pas nécessairement en dire autant d'un outil algorithmique. Cela suggère la nécessité d'un examen minutieux et constant des prédicteurs utilisés et d'une actualisation fréquente de l'algorithme avec des données historiques plus récentes."
Aucun outil de prédiction ne peut être parfait. Une étude de validation indépendante de HART a trouvé une précision globale d'environ 63 %. Mais, dit Barnes, la véritable puissance de l'apprentissage automatique ne vient pas du tout d'éviter toute erreur, mais de décider quelles erreurs vous voulez le plus éviter.
"Toutes les erreurs ne sont pas égales, " dit Sheena Urwin, chef de la justice pénale à Durham Constabulary et diplômé du programme de maîtrise en études exécutives de la police de l'Institute of Criminology. "La pire erreur serait si le modèle prévoyait des prévisions faibles et que le délinquant s'avérait élevé."
« En consultation avec la police de Durham, nous avons construit un système qui est précis à 98 % pour éviter cette forme d'erreur la plus dangereuse - le « faux négatif » - le délinquant qui est censé être relativement en sécurité, mais continue ensuite à commettre une infraction grave avec violence, " ajoute Barnes. " L'IA est réglable à l'infini et lors de la construction d'un outil d'IA, il est important de peser la voie la plus éthiquement appropriée à prendre. "
Les chercheurs soulignent également que la sortie de HART est à titre indicatif uniquement, et que la décision ultime est celle du policier responsable.
"HART utilise les données de Durham et n'est donc pertinent que pour les infractions commises dans la juridiction de Durham Constabulary. Cette limitation est l'une des raisons pour lesquelles de tels modèles doivent être considérés comme soutenant les décideurs humains et non les remplaçant, " explique Barnes. " Ces technologies ne sont pas, d'eux-mêmes, balles d'argent pour les forces de l'ordre, et ce ne sont pas non plus de sinistres machinations d'un soi-disant État de surveillance. »
Certaines décisions, dit Sherman, ont un impact trop important sur la société et le bien-être des individus pour qu'ils soient influencés par une technologie émergente.
Là où les outils basés sur l'IA sont très prometteurs, cependant, consiste à utiliser la prévision du niveau de risque des délinquants pour un « triage » efficace, comme le décrit Sherman :« Le service de police est sous pression pour faire plus avec moins, mieux cibler les ressources, et pour assurer la sécurité du public.
"L'outil permet d'identifier les quelques 'aiguilles dans la botte de foin' qui représentent un danger majeur pour la communauté, et dont la publication devrait être soumise à des niveaux supplémentaires d'examen. À la fois, un meilleur triage peut faire en sorte que les bons délinquants reçoivent des décisions de mise en liberté qui profitent à la fois à eux et à la société. »