Le programme controversé de reconnaissance faciale d'Amazon, Reconnaissance, faussement identifié 28 membres du Congrès lors d'un test du programme par l'American Civil Liberties Union, a déclaré jeudi le groupe des droits civiques.
Dans son essai, l'ACLU a scanné les photos de tous les membres du Congrès et a demandé au système de les comparer avec une base de données publique de 25, 000 mugshots.
Le groupe a utilisé le paramètre par défaut du « seuil de confiance » de 80 % pour la reconnaissance, ce qui signifie que le test a compté une correspondance de visage avec une certitude de 80 pour cent ou plus.
A ce réglage, le système a mal identifié 28 membres du Congrès, dont un nombre disproportionné de personnes de couleur, en les étiquetant plutôt comme des personnes entièrement différentes qui ont été arrêtées pour un crime.
Les visages des membres du Congrès utilisés dans le test incluent des républicains et des démocrates, hommes et femmes et législateurs de tous âges.
Amazon a répondu que lors de l'utilisation de la reconnaissance faciale pour les activités d'application de la loi, il recommande de fixer le seuil de confiance à 95 % ou plus.
Un porte-parole d'Amazon Web Services a déclaré dans un communiqué que les résultats des tests auraient pu être améliorés en augmentant le seuil de confiance. Alors que 80 % est un seuil acceptable pour les photos d'objets et d'objets du quotidien, il n'est pas approprié pour identifier des individus avec un « niveau raisonnable de certitude ».
Dans son rapport sur ses conclusions, l'ACLU a déclaré que le paramètre par défaut du programme était de 80% et qu'Amazon recommande ce niveau pour la vérification des utilisateurs basée sur le visage.
L'outil est utilisé pour la reconnaissance faciale dans des arènes en dehors des forces de l'ordre. Par exemple, lors du mariage royal du prince Harry et de Meghan Markle en mai, Le diffuseur britannique Sky News a utilisé Rekognition pour l'aider à identifier les célébrités à leur entrée dans le château de Windsor.
Le logiciel a également été utilisé par Pinterest pour faire correspondre les images, par les magasins pour suivre les gens, pour identifier le contenu potentiellement dangereux ou inapproprié en ligne et pour trouver du texte dans les images.
Confidentialité et police
Amazon a récemment été critiqué pour avoir vendu le service de reconnaissance faciale aux forces de l'ordre en raison des inquiétudes qu'il pourrait être utilisé pour suivre les personnes dans leur vie quotidienne, ou lors de manifestations politiques ou dans d'autres situations où la plupart des gens présument maintenant qu'ils sont anonymes.
En raison de ces préoccupations, groupes de défense des droits civiques, Les défenseurs de la vie privée et même certains employés et actionnaires d'Amazon ont demandé au PDG Jeff Bezos de cesser d'autoriser la police et les agences fédérales à utiliser la technologie de reconnaissance faciale.
Les résultats du test de l'ACLU « démontrent pourquoi le Congrès devrait se joindre à l'ACLU pour demander un moratoire sur l'utilisation de la surveillance faciale par les forces de l'ordre, " a écrit Jacob Snow, un avocat de la technologie et des libertés civiles pour l'ACLU de Californie du Nord.
Il y a deux ans, Amazon a conçu l'outil de reconnaissance faciale et de produit comme un moyen pour les clients de rechercher rapidement une base de données d'images et de rechercher des correspondances. Rekognition nécessite que l'utilisateur dispose de deux ensembles d'images. La première est généralement une grande base de données d'individus connus. L'utilisateur soumet ensuite des images individuelles que le logiciel compare ensuite avec celles de la grande base de données pour trouver ce qu'il pense être des correspondances.
Snow a déclaré que le produit avait été commercialisé "de manière agressive" auprès de la police. Au moins deux agences, un à Orlando, Floride, et un dans le comté de Washington, Oregon, testent actuellement Rekognition.
L'analyste en charge du programme du comté de Washington a déclaré qu'il ne s'appuierait jamais sur un logiciel de reconnaissance faciale pour aller parler à un suspect potentiel, encore moins les arrêter.
Le département ne fixe pas du tout de seuil de confiance car toutes les décisions sont prises par des humains, dit Chris Adzima, l'analyste principal des systèmes d'information au bureau du shérif du comté de Washington à Hillsboro, Oregon.
"Quand on a une image d'une enquête active, l'enquêteur le mettra dans notre système et le système crachera les cinq premiers résultats probables. Ensuite, l'enquêteur examinera ces cinq éléments pour déterminer si l'une d'entre elles est une piste possible, " il a dit.
Même à ce moment là, l'enquêteur doit faire preuve de diligence raisonnable, exécuter le nom pour voir si la personne avait un dossier ou un contact connu avec des victimes potentielles.
Alors qu'Adzima a déclaré que le comté de Washington réussissait bien à utiliser la reconnaissance faciale pour aider à identifier les personnes qui ont finalement été liées à des crimes, « presque aucun d'entre eux n'était sous un seuil de confiance de 95 %, " il a dit.
La technologie de reconnaissance faciale a été utilisée avec succès pour identifier l'homme arrêté pour la fusillade dans la salle de presse de la Capital Gazette à Baltimore, Maryland.
Mais l'ACLU et d'autres défenseurs de la vie privée disent que la technologie est une invasion de la vie privée. Et ils disent qu'il pourrait être utilisé pour cibler et suivre les immigrants ou les manifestants.
En mai, 34 groupes de défense des droits civiques ont envoyé une lettre au PDG d'Amazon Jeff Bezos, disant que les gens devraient être "libres de marcher dans la rue sans être surveillés par le gouvernement".
Ce même mois, membres du Congressional Black Caucus, a également envoyé une lettre à Bezos, qui ont dit qu'ils étaient troublés par les « conséquences négatives imprévues profondes » que cette technologie pourrait avoir pour les Afro-Américains, les sans-papiers et les manifestants.
« Les « angles morts » basés sur la race en intelligence artificielle, en particulier ceux qui se manifestent dans la technologie de reconnaissance faciale, ont été bien documentés, " disait la lettre.
Ces "angles morts" dans l'IA de reconnaissance faciale incluent un incident en 2015 où une application photo de Google a identifié des photos d'utilisateurs afro-américains comme des "gorilles" et une étude publiée plus tôt cette année par le Massachusetts Institute of Technology qui a trouvé un logiciel de reconnaissance faciale, utilisé pour identifier le sexe d'une personne, avait un taux d'erreur de 0,8% pour les hommes à la peau claire et de 34,7% pour les femmes à la peau foncée. L'étude a utilisé trois types différents de logiciels commerciaux de reconnaissance faciale.
Six membres du Congressional Black Caucus ont été mal identifiés dans le test de reconnaissance de l'ACLU.
Les représentants Jimmy Gomez (D-Calif.) et John Lewis (D-Ga.), qui ont tous deux été faussement identifiés lors du test, a envoyé une lettre à Bezos jeudi demandant de se rencontrer immédiatement pour remédier aux "défauts" de la technologie "afin d'éviter des résultats inexacts".
©2018 États-Unis aujourd'hui
Distribué par Tribune Content Agency, LLC.