• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Pourquoi la police devrait utiliser l'apprentissage automatique, très attentivement

    Crédit :Kirill_makarov/Shutterstock.com

    Le débat sur l'utilisation de l'apprentissage automatique par la police s'intensifie – il est considéré par certains comme aussi controversé que l'interpellation et la fouille.

    L'interpellation et la fouille sont l'un des domaines les plus controversés de la façon dont la police interagit avec le public. Il a été fortement critiqué pour être discriminatoire envers les groupes ethniques noirs et minoritaires, et pour avoir des effets marginaux sur la réduction de la criminalité. De la même manière, l'utilisation par la police d'algorithmes d'apprentissage automatique a été condamnée par des groupes de défense des droits de l'homme qui affirment que ces programmes encouragent le profilage racial et la discrimination, ainsi qu'une menace pour la vie privée et la liberté d'expression.

    D'une manière générale, L'apprentissage automatique utilise des données pour apprendre aux ordinateurs à prendre des décisions sans leur indiquer explicitement comment le faire. L'apprentissage automatique est utilisé avec succès dans de nombreuses industries pour créer de l'efficacité, prioriser les risques et améliorer la prise de décision.

    Bien qu'ils soient à un stade très précoce, la police au Royaume-Uni explore les avantages de l'utilisation de méthodes d'apprentissage automatique pour prévenir et détecter la criminalité, et développer de nouvelles idées pour s'attaquer à des problèmes d'intérêt public important.

    Il est vrai qu'il existe des problèmes potentiels avec toute utilisation d'algorithmes probabilistes d'apprentissage automatique dans le maintien de l'ordre. Par exemple, lors de l'utilisation de données historiques, il y a des risques que les algorithmes, lors des prédictions, discriminer injustement envers certains groupes de personnes. Mais si la police aborde l'utilisation de cette technologie de la bonne manière, cela ne devrait pas être aussi controversé que l'interpellation et la fouille et pourrait grandement contribuer à ce que la police soit plus efficace dans la prévention et la résolution des crimes.

    Un défi policier des temps modernes

    Prenons le cas de la récente inquiétude du public concernant les clips musicaux de drill et leur contenu lyrique unique prétendument utilisé pour inspirer, inciter et glorifier la violence grave.

    La musique de forage a, au cours des dernières années, se propager dans les grandes villes du Royaume-Uni. Les plateformes de médias sociaux telles que YouTube et Instagram ont, à la fois, a été témoin d'une augmentation significative du nombre de vidéos musicales d'exercices téléchargées en ligne. Beaucoup de vidéos, qui présentent des rappeurs masculins portant des masques faciaux, utiliser la violence, langage provocateur et nihiliste, recevoir des millions de vues.

    L'officier de police le plus haut gradé du Royaume-Uni, Commissaire Cressida Dick, a publiquement critiqué les clips musicaux de drill, affirmant qu'ils sont utilisés pour glorifier le meurtre et la violence grave et aggraver les tensions entre les gangs de rue rivaux.

    Beaucoup de gens ne sont pas d'accord avec le fait que la police accuse la musique d'exercices. Les partisans de ce genre musical soutiennent que le meurtre et la violence ne sont pas un phénomène nouveau, et ne devrait pas être considéré comme causal pour percer les artistes qui rappent sur les dures réalités de leurs expériences vécues. Certains universitaires craignent également que l'approche actuelle de la police « conduise à la criminalisation des activités quotidiennes » et que « les jeunes issus de milieux défavorisés soient désormais catégorisés comme des fauteurs de troubles par le simple fait de faire un clip vidéo ».

    Néanmoins, à la police, c'est une question importante :ils ont la responsabilité légale de protéger la vie et de gérer les risques pour le public. En tant que tel, détecter les contenus en ligne nuisibles qui, par exemple, peut contenir une menace pour la vie d'une personne, est à la fois un problème contemporain de police opérationnelle, et un problème technologique insoluble que la police doit être en mesure de résoudre.

    Développement d'outils d'apprentissage automatique

    Les policiers qui visionnent manuellement de grandes quantités de vidéos pour identifier et discerner le contenu préjudiciable et criminel de l'expression créative légitime sont extrêmement inefficaces. En tant que tel, il devrait être automatisé. Oui, il existe actuellement des défis techniques importants pour les algorithmes d'apprentissage automatique pour comprendre un tel contenu lyrique unique. Mais ce type de problème, pour les chercheurs, s'intègre parfaitement dans le domaine croissant de l'apprentissage automatique du traitement du langage naturel. Il s'agit d'un domaine qui utilise des techniques informatiques pour comprendre le langage et la parole humains.

    Plus généralement, il y a un manque de recherche sur l'impact social de la police utilisant l'apprentissage automatique pour prévenir et détecter la criminalité. Alors en attendant, pour éviter la controverse, la police ne devrait pas s'appuyer sur des modèles d'apprentissage automatique opaques et prêts à l'emploi qui n'ont pas été testés dans un contexte de police opérationnelle pour automatiser l'analyse de grandes quantités de données. Les modèles de boîte noire sont à juste titre controversés car ils ne montrent pas leur logique interne ni les processus utilisés pour prendre des décisions.

    Une meilleure façon d'aller de l'avant consiste pour la police à travailler avec des experts et à créer des modèles d'apprentissage automatique spécialement conçus à des fins policières qui utilisent mieux les données pour résoudre les problèmes, tels que ceux inhérents aux vidéos musicales de forage. la police de Durham, par exemple, ont récemment travaillé avec des scientifiques de l'Université de Cambridge pour développer un outil algorithmique d'évaluation des risques pour aider à prendre des décisions concernant les infractions futures lorsqu'une personne est arrêtée par la police.

    De cette façon, les outils d'apprentissage automatique peuvent être établis sur des principes scientifiques largement acceptés, avec un niveau de transparence qui peut être utilisé pour galvaniser le soutien du public d'une manière que l'arrêt et la recherche n'ont pas pu faire.

    Inquiétudes sur la transparence

    Dans un récent rapport, le groupe de réflexion britannique sur la défense et la sécurité RUSI a soulevé des préoccupations plus spécifiques concernant le concept de la police utilisant des algorithmes d'apprentissage automatique pour faire des prédictions et soutenir la prise de décision. Notamment, il parle du concept de « transparence algorithmique » et de la difficulté pour les non-spécialistes de comprendre comment des modèles statistiques complexes sont utilisés pour prendre des décisions.

    Le rapport souligne un point important :si l'apprentissage automatique est utilisé dans n'importe quelle forme de cadre de justice pénale, les non-spécialistes devraient être capables de comprendre comment les décisions ont été prises et de déterminer si les résultats sont exacts et justes.

    Tout bien considéré, le directeur de la police utilise l'apprentissage automatique pour identifier les risques et soutenir la prise de décision, n'est pas – et ne doit pas – être considéré comme une nouvelle forme de totalitarisme qui cherche à éroder les droits démocratiques, empêcher la liberté d'expression, marginaliser les groupes ethniques noirs et minoritaires.

    La criminalité croissante au Royaume-Uni étant désormais le problème le plus important auquel le public britannique est confronté après le Brexit, l'apprentissage automatique - dans le cadre d'une éthique appropriée, cadre réglementaire et de confiance du public – devrait avoir sa place dans la boîte à outils des services de police modernes pour prévenir le crime et protéger le public.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com