• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Comment la technologie de reconnaissance faciale est-elle utilisée en Ukraine et pourquoi est-elle toujours aussi controversée

    La technologie de reconnaissance faciale est controversée dans de nombreux pays. Crédit :Shutterstock

    La technologie de reconnaissance faciale est utilisée pour la première fois dans la guerre. Cela pourrait changer la donne en Ukraine, où il est utilisé pour identifier les morts et réunir les familles. Mais si nous ne parvenons pas à nous attaquer à l'éthique de cette technologie maintenant, nous pourrions nous retrouver dans un champ de mines en matière de droits de l'homme.

    Le ministère ukrainien de la Défense utilise le logiciel de reconnaissance faciale Clearview AI depuis mars 2022 pour constituer un dossier de crimes de guerre et identifier les morts, russes et ukrainiens. " Bienvenue à venir en Ukraine".

    L'Ukraine bénéficie d'un accès gratuit au logiciel. Il est également utilisé aux points de contrôle et pourrait aider à réunir les réfugiés avec leurs familles.

    Le contrecoup de la vie privée

    Le mois dernier, cependant, le Bureau du Commissaire à l'information du Royaume-Uni (ICO) a infligé à Clearview AI une amende de plus de 7,5 millions de livres sterling pour avoir collecté des images de personnes au Royaume-Uni et ailleurs sur le Web et les médias sociaux. Il a été ordonné de supprimer les images et de cesser d'obtenir et d'utiliser les données personnelles des résidents britanniques accessibles au public sur Internet. À l'origine, l'ICO avait annoncé son intention d'infliger une amende de 17 millions de livres sterling à Clearview AI.

    Selon l'ICO, étant donné le grand nombre d'utilisateurs de médias sociaux au Royaume-Uni, la base de données faciale de Clearview AI est susceptible de contenir une quantité importante d'images collectées sans consentement.

    Un avocat de Clearview, AI Lee Wolosky, a déclaré:"Bien que nous apprécions le désir de l'ICO de réduire sa sanction pécuniaire sur Clearview AI, nous maintenons néanmoins notre position selon laquelle la décision d'imposer une amende est incorrecte en droit. Clearview AI n'est pas soumis à la juridiction de l'ICO, et Clearview AI n'exerce actuellement aucune activité au Royaume-Uni."

    Clearview AI a déclaré vouloir 100 milliards d'images de visages dans sa base de données d'ici le début de 2023, soit l'équivalent de 14 pour chaque personne sur Terre. Plusieurs photos de la même personne améliorent la précision du système.

    Selon le site Web de Clearview AI, sa technologie de reconnaissance faciale aide les forces de l'ordre à lutter contre la criminalité et permet aux entreprises de transport, aux banques et à d'autres sociétés commerciales de détecter le vol, de prévenir la fraude et de vérifier les identités.

    Buzzfeed a rapporté en février 2020 que plusieurs forces de police britanniques avaient déjà utilisé Clearview AI. Une porte-parole de Clearview AI a déclaré que la police britannique n'avait pas accès à sa technologie, tandis que les porte-parole de la National Crime Agency et de la police métropolitaine ne confirmeraient ni ne nieraient l'utilisation d'outils ou de techniques spécifiques. Cependant, en mars 2022, le College of Policing a publié de nouvelles directives pour les forces de police britanniques sur l'utilisation de la reconnaissance faciale en direct.

    Le gouvernement britannique prévoit de remplacer les principales lois sur les droits de l'homme par une nouvelle Déclaration des droits moderne qui pourrait rendre difficile, voire impossible, la contestation devant les tribunaux de décisions fondées sur des preuves d'IA, y compris la reconnaissance faciale.

    Selon le groupe de défense Liberty, le projet de loi est susceptible d'avoir un impact disproportionné sur les communautés sur-policées, car il créerait différentes catégories de demandeurs en fonction de leur comportement passé.

    Un outil de guerre

    Le directeur général de Clearview AI, Hoan Ton-That, a déclaré que son logiciel de reconnaissance faciale avait permis aux forces de l'ordre et aux responsables gouvernementaux ukrainiens de stocker plus de 2 milliards d'images de VKontakte, un service de réseau social russe. Hoan a déclaré que le logiciel peut aider les responsables ukrainiens à identifier les soldats morts plus efficacement que les empreintes digitales, et fonctionne même si le visage d'un soldat est endommagé.

    Mais il existe des preuves contradictoires sur l'efficacité des logiciels de reconnaissance faciale. Selon le département américain de l'énergie, la décomposition du visage d'une personne peut réduire la précision du logiciel. D'autre part, des recherches scientifiques récentes ont démontré des résultats relatifs à l'identification des personnes décédées qui étaient similaires ou meilleurs que l'évaluation humaine.

    Les recherches suggèrent que les empreintes digitales, les dossiers dentaires et l'ADN sont toujours les techniques d'identification les plus fiables. Mais ce sont des outils pour des professionnels formés, tandis que la reconnaissance faciale peut être utilisée par des non-experts.

    Un autre problème signalé par la recherche est que la reconnaissance faciale peut associer par erreur deux images ou ne pas correspondre aux photos de la même personne. En Ukraine, les conséquences de toute erreur potentielle avec l'IA pourraient être désastreuses. Un civil innocent pourrait être tué s'il est identifié à tort comme un soldat russe.

    Une histoire controversée

    En 2016, Hoan a commencé à recruter des ingénieurs en informatique pour créer l'algorithme de Clearview AI. Mais ce n'est qu'en 2019 que la société américaine de reconnaissance faciale a commencé à fournir discrètement son logiciel à la police et aux forces de l'ordre américaines.

    En janvier 2020, le New York Times a publié son article :"La société secrète qui pourrait mettre fin à la vie privée telle que nous la connaissons". Cet article a incité plus de 40 organisations de défense des droits civiques et technologiques à envoyer une lettre au Conseil de surveillance de la vie privée et des libertés civiles et à quatre comités du Congrès américain, exigeant la suspension du logiciel de reconnaissance faciale de Clearview AI.

    En février 2020, à la suite d'une fuite de données de la liste des clients de Clearview AI, BuzzFeed a révélé que le logiciel de reconnaissance faciale de Clearview AI était utilisé par des individus dans plus de 2200 services chargés de l'application de la loi, agences gouvernementales et entreprises dans 27 pays différents.

    Le 9 mai 2022, Clearview AI a accepté de cesser de vendre l'accès à sa base de données de visages aux particuliers et aux entreprises aux États-Unis, après que l'American Civil Liberties Union a lancé une action en justice accusant Clearview AI d'avoir enfreint une loi de l'Illinois sur la confidentialité.

    Au cours des deux dernières années, les autorités de protection des données au Canada, en France, en Italie, en Autriche et en Grèce ont toutes infligé des amendes, enquêté ou interdit à Clearview AI de collecter des images de personnes.

    L'avenir de Clearview AI au Royaume-Uni est incertain. Le pire scénario pour les gens ordinaires et les entreprises serait que le gouvernement britannique ne prenne pas en compte les préoccupations soulevées en réponse à sa consultation sur la Déclaration des droits moderne. Liberty a mis en garde contre une potentielle "prise de pouvoir" des droits de l'homme

    Le meilleur résultat, à mon avis, serait que le gouvernement britannique abandonne ses plans pour une déclaration des droits moderne. Cela signifierait également que les tribunaux britanniques devraient continuer à prendre en compte les affaires de la Cour européenne des droits de l'homme comme jurisprudence.

    À moins que des lois régissant l'utilisation de la reconnaissance faciale ne soient adoptées, l'utilisation de cette technologie par la police risque de violer les droits à la vie privée, la protection des données et les lois sur l'égalité.

    © Science https://fr.scienceaq.com