• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Des erreurs massives trouvées dans la technologie de reconnaissance faciale :étude américaine

    Les logiciels de reconnaissance faciale peuvent produire des résultats extrêmement inexacts, selon une étude du gouvernement américain sur la technologie, qui est utilisé pour l'application de la loi, sécurité aéroportuaire et ailleurs

    Les systèmes de reconnaissance faciale peuvent produire des résultats extrêmement inexacts, surtout pour les non-blancs, selon une étude du gouvernement américain publiée jeudi qui est susceptible de soulever de nouveaux doutes sur le déploiement de la technologie d'intelligence artificielle.

    L'étude de dizaines d'algorithmes de reconnaissance faciale a montré des taux de "faux positifs" pour les Asiatiques et les Afro-Américains jusqu'à 100 fois plus élevés que pour les Blancs.

    Les chercheurs du National Institute of Standards and Technology (NIST), un centre de recherche gouvernemental, a également découvert que deux algorithmes attribuaient le mauvais sexe aux femmes noires près de 35 % du temps.

    L'étude intervient dans un contexte de déploiement généralisé de la reconnaissance faciale pour les forces de l'ordre, aéroports, la sécurité des frontières, bancaire, commerce de détail, écoles et pour les technologies personnelles telles que le déverrouillage des smartphones.

    Certains militants et chercheurs ont affirmé que le potentiel d'erreurs est trop grand et que des erreurs pourraient entraîner l'emprisonnement de personnes innocentes, et que la technologie pourrait être utilisée pour créer des bases de données qui pourraient être piratées ou utilisées de manière inappropriée.

    L'étude du NIST a trouvé à la fois des « faux positifs, " dans lequel un individu est identifié par erreur, et "faux négatifs, " où l'algorithme ne parvient pas à faire correspondre avec précision un visage à une personne spécifique dans une base de données.

    "Un faux négatif peut être simplement un inconvénient - vous ne pouvez pas accéder à votre téléphone, mais le problème peut généralement être résolu par une deuxième tentative, " a déclaré le chercheur principal Patrick Grother.

    "Mais un faux positif dans une recherche un-à-plusieurs met une correspondance incorrecte sur une liste de candidats qui justifient un examen plus approfondi."

    L'étude a révélé que les systèmes de reconnaissance faciale développés aux États-Unis présentaient des taux d'erreur plus élevés pour les Asiatiques, groupes afro-américains et amérindiens, avec la démographie amérindienne montrant les taux les plus élevés de faux positifs.

    Cependant, certains algorithmes développés dans les pays asiatiques ont produit des taux de précision similaires pour la correspondance entre les visages asiatiques et caucasiens, ce qui, selon les chercheurs, suggère que ces disparités peuvent être corrigées.

    "Ces résultats sont un signe encourageant que des données de formation plus diversifiées peuvent produire des résultats plus équitables, " dit Grother.

    Néanmoins, Jay Stanley de l'Union américaine des libertés civiles, qui a critiqué le déploiement de la reconnaissance faciale, a déclaré que la nouvelle étude montre que la technologie n'est pas prête pour un déploiement à grande échelle.

    "Même les scientifiques du gouvernement confirment maintenant que cette technologie de surveillance est imparfaite et biaisée, ", a déclaré Stanley dans un communiqué.

    "Une fausse correspondance peut entraîner des vols manqués, de longs interrogatoires, placements de la liste de surveillance, rencontres policières tendues, fausses arrestations ou pire. Mais les défauts de la technologie ne sont qu'une préoccupation. La technologie de reconnaissance faciale, précise ou non, peut rendre indétectable, persistant, et une surveillance sans suspicion à une échelle sans précédent. »

    © 2019 AFP




    © Science https://fr.scienceaq.com