• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Les outils de détermination de la peine de l'IA doivent être examinés de près, dit une nouvelle étude

    Crédit :CC0 Domaine public

    Dans un article publié par le Sciences du comportement et droit journal, des experts de l'Université de Surrey portent un regard critique sur l'utilisation croissante des outils algorithmiques d'évaluation des risques, qui agissent comme une forme de preuve scientifique d'expert dans un nombre croissant d'affaires pénales.

    L'examen fait valoir qu'en raison de plusieurs problèmes, tels que les biais des développeurs et les faibles preuves statistiques des performances prédictives de l'IA, les juges devraient agir en tant que gardiens et examiner de près si de tels outils devraient être utilisés.

    Le document décrit trois étapes que les juges devraient prendre en considération :

    • Aptitude, il s'agit de déterminer si l'utilisation de l'outil d'IA est vraiment pertinente pour le cas
    • Précision, il s'agit de comprendre si l'outil peut vraiment faire la distinction entre les récidivistes et les non-récidivistes
    • Fiabilité, cela exigerait que les juges examinent la fiabilité des résultats de l'outil dans la pratique. Cette étape ne serait pas requise si le juge trouvait l'IA manquante dans l'une des deux premières étapes.

    Dr Melissa Hamilton, auteur de l'article et lecteur en droit et justice pénale à la faculté de droit de l'Université de Surrey, a déclaré :« Ces outils d'IA émergents ont le potentiel d'offrir des avantages aux juges lors de la détermination de la peine, mais une attention particulière doit être accordée à leur fiabilité. S'ils sont utilisés avec négligence, ces outils ne rendront pas service aux accusés à la réception. »


    © Science https://fr.scienceaq.com