Crédit :CC0 Domaine public
Dans un article publié par le Sciences du comportement et droit journal, des experts de l'Université de Surrey portent un regard critique sur l'utilisation croissante des outils algorithmiques d'évaluation des risques, qui agissent comme une forme de preuve scientifique d'expert dans un nombre croissant d'affaires pénales.
L'examen fait valoir qu'en raison de plusieurs problèmes, tels que les biais des développeurs et les faibles preuves statistiques des performances prédictives de l'IA, les juges devraient agir en tant que gardiens et examiner de près si de tels outils devraient être utilisés.
Le document décrit trois étapes que les juges devraient prendre en considération :
Dr Melissa Hamilton, auteur de l'article et lecteur en droit et justice pénale à la faculté de droit de l'Université de Surrey, a déclaré :« Ces outils d'IA émergents ont le potentiel d'offrir des avantages aux juges lors de la détermination de la peine, mais une attention particulière doit être accordée à leur fiabilité. S'ils sont utilisés avec négligence, ces outils ne rendront pas service aux accusés à la réception. »