Crédit :CC0 Domaine public
La technologie de détection faciale qu'Amazon commercialise auprès des forces de l'ordre identifie souvent mal les femmes, en particulier ceux qui ont la peau plus foncée, selon des chercheurs du MIT et de l'Université de Toronto.
Les défenseurs de la vie privée et des droits civiques ont appelé Amazon à cesser de commercialiser son service Rekognition en raison d'inquiétudes concernant la discrimination à l'encontre des minorités. Certains investisseurs d'Amazon ont également demandé à l'entreprise d'arrêter de peur qu'elle ne rende Amazon vulnérable à des poursuites judiciaires.
Les chercheurs ont dit que dans leurs tests, La technologie d'Amazon a qualifié les femmes à la peau plus foncée d'hommes 31 % du temps. Les femmes à la peau plus claire ont été mal identifiées 7 pour cent du temps. Les hommes à la peau plus foncée avaient un taux d'erreur de 1%, tandis que les hommes à la peau plus claire n'en avaient pas.
L'intelligence artificielle peut imiter les préjugés de leurs créateurs humains alors qu'ils font leur chemin dans la vie de tous les jours. La nouvelle étude, sorti jeudi soir, met en garde contre le potentiel d'abus et de menaces à la vie privée et aux libertés civiles de la technologie de détection faciale.
Bois mat, directeur général de l'intelligence artificielle avec la cellule cloud-computing d'Amazon, a déclaré que l'étude utilise une technologie "d'analyse faciale" et non de "reconnaissance faciale". Wood a déclaré que l'analyse faciale "peut repérer les visages dans les vidéos ou les images et attribuer des attributs génériques tels que le port de lunettes; la reconnaissance est une technique différente par laquelle un visage individuel est associé à des visages dans des vidéos et des images".
Dans un article du vendredi sur le site Web de Medium, Joy Buolamwini, chercheuse au MIT Media Lab, a répondu que les entreprises devraient vérifier tous les systèmes qui analysent les visages humains pour déceler les biais.
« Si vous vendez un système dont il a été démontré qu'il a des préjugés sur les visages humains, il est douteux que vos autres produits pour le visage soient également totalement exempts de biais, " elle a écrit.
La réaction d'Amazon montre qu'elle ne prend pas au sérieux les "inquiétudes vraiment graves révélées par cette étude, " dit Jacob Snow, un avocat de l'American Civil Liberties Union.
Buolamwini et Inioluwa Deborah Raji de l'Université de Toronto ont déclaré avoir étudié la technologie d'Amazon parce que la société l'avait commercialisée auprès des forces de l'ordre. Le compte LinkedIn de Raji indique qu'elle est actuellement stagiaire de recherche en intelligence artificielle chez Google, qui est en concurrence avec Amazon dans l'offre de services de cloud computing.
Buolamwini et Raji affirment que Microsoft et IBM ont amélioré leur technologie de reconnaissance faciale depuis que des chercheurs ont découvert des problèmes similaires dans une étude de mai 2017. Leur deuxième étude, qui comprenait Amazon, a été fait en août 2018. Leur article sera présenté lundi lors d'une conférence sur l'intelligence artificielle à Honolulu.
Wood a déclaré qu'Amazon avait mis à jour sa technologie depuis l'étude et avait effectué sa propre analyse avec "zéro correspondance faussement positive".
Le site Web d'Amazon remercie Rekognition d'avoir aidé le bureau du shérif du comté de Washington dans l'Oregon à accélérer le temps qu'il a fallu pour identifier les suspects à partir de centaines de milliers d'enregistrements de photos.
© 2019 La Presse Associée. Tous les droits sont réservés.