L'IA peut être utilisée pour identifier les auteurs potentiels de crimes violents et évaluer le risque de récidive criminelle. Crédit :Max Pixel, sous licence CC0
Un pistolet à eau intelligent qui utilise la reconnaissance faciale pour identifier ses cibles aide à mettre en évidence certains des problèmes émergents en matière de droits de l'homme liés à l'intelligence artificielle (IA) - un domaine de recherche en plein essor alors que les nouvelles technologies deviennent de plus en plus répandues dans notre quotidien. des vies.
« Il est très difficile d'être un chercheur en IA maintenant et de ne pas être conscient des implications éthiques de ces algorithmes, " a déclaré le professeur Bernd Stahl, directeur du Center for Computing and Social Responsibility de De Montfort University à Leicester, ROYAUME-UNI.
"Nous devons parvenir à une meilleure compréhension non seulement de ce que ces technologies peuvent faire, mais comment ils se joueront dans la société et dans le monde en général."
Il dirige un projet appelé SHERPA, qui tente de lutter contre certains des problèmes éthiques liés aux systèmes d'information intelligents qui utilisent l'apprentissage automatique, une forme d'IA, et d'autres algorithmes pour analyser de grands ensembles de données.
Le pistolet à eau intelligent a été créé dans le but de mettre en évidence comment les biais dans les algorithmes peuvent conduire à la discrimination et à un traitement injuste. Construit par un artiste pour SHERPA, le pistolet à eau peut être programmé pour sélectionner ses cibles.
"Notre artiste a construit un pistolet à eau avec une reconnaissance faciale dessus afin qu'il ne jette de l'eau que sur les femmes ou qu'il puisse être modifié pour reconnaître un seul individu ou des personnes d'un certain âge, " a déclaré le professeur Stahl. " L'idée est d'amener les gens à réfléchir à ce que ce type de technologie peut faire. "
Alors que faire jaillir de l'eau sur les gens peut sembler un plaisir inoffensif, les problèmes sont tout sauf. L'IA est déjà utilisée pour identifier les visages sur les réseaux sociaux, répondre aux questions sur les assistants numériques à domicile comme Alexa et Siri, et suggérer des produits aux consommateurs lorsqu'ils font leurs achats en ligne.
Il est également utilisé pour aider à faire jugements sur le risque de récidive des criminels ou même à identifier ceux qui pourraient commettre des crimes violents . Les assureurs et autorités fiscales l'utilisent pour aider à détecter la fraude, les banques se sont tournées vers l'IA pour aider à traiter les demandes de prêt et il est même testé aux postes frontières .
Impacts
Au cours de la dernière année, Le professeur Stahl et ses collègues ont compilé 10 études de cas où ils ont analysé empiriquement les impacts de ces technologies dans un certain nombre de secteurs. Il s'agit notamment de l'utilisation de l'IA dans les villes intelligentes, son utilisation par le secteur des assurances, dans l'éducation, soins de santé, l'agriculture et par les gouvernements.
« Il y a des choses très médiatisées qui recoupent les secteurs, comme la vie privée, protection des données et cybersécurité, " a déclaré le professeur Stahl. " L'IA crée également de nouveaux défis pour le droit au travail si les algorithmes peuvent prendre les emplois des gens, ou le droit à des élections libres s'il peut être utilisé pour s'immiscer dans le processus démocratique, comme nous l'avons vu avec Cambridge Analytica."
L'une des utilisations émergentes les plus controversées de l'IA est peut-être la police prédictive, où les algorithmes sont entraînés sur des ensembles de données historiques pour identifier des modèles de comportement et de caractéristiques des délinquants. Cela peut ensuite être utilisé pour prédire les zones, groupes ou même des individus qui pourraient être impliqués dans des crimes à l'avenir. Une technologie similaire est déjà testée dans certaines parties des États-Unis et du Royaume-Uni.
Les préjugés
Mais ces algorithmes peuvent également apprendre les biais qui existent déjà dans les ensembles de données. Si une base de données de la police montre que principalement des jeunes, des hommes noirs sont arrêtés pour un certain crime, il se peut qu'il ne reflète pas fidèlement le profil réel du délinquant et qu'il reflète plutôt le racisme historique au sein d'une force. L'utilisation de l'IA enseignée sur ce type de données pourrait exacerber des problèmes tels que le racisme et d'autres formes de discrimination.
"La transparence de ces algorithmes est aussi un problème, " a déclaré le professeur Stahl. " Ces algorithmes effectuent une classification statistique des données d'une manière qui rend presque impossible de voir exactement comment cela s'est produit. " Cela soulève des questions importantes sur la façon dont les systèmes juridiques, par exemple, peuvent rester justes et justes s'ils commencent à s'appuyer sur des algorithmes d'IA opaques de « boîte noire » pour éclairer les décisions de condamnation ou les jugements sur la culpabilité d'une personne.
La prochaine étape du projet consistera à examiner les interventions potentielles pouvant être utilisées pour résoudre certains de ces problèmes. Il examinera où les lignes directrices peuvent aider à garantir que les chercheurs en IA intègrent l'équité dans leurs algorithmes, où de nouvelles lois peuvent régir leur utilisation et si un régulateur peut contrôler les aspects négatifs de la technologie.
Mais l'un des problèmes auxquels de nombreux gouvernements et régulateurs sont confrontés est de suivre le rythme rapide des changements dans les nouvelles technologies comme l'IA, selon le professeur Philip Brey, qui étudie la philosophie de la technologie à l'Université de Twente, aux Pays-Bas.
"La plupart des gens aujourd'hui ne comprennent pas la technologie parce qu'elle est très complexe, opaque et rapide, " a-t-il dit. " Pour cette raison, il est difficile d'anticiper et d'évaluer les impacts sur la société, et d'avoir des réponses réglementaires et législatives adéquates à cela. La politique est généralement très en retard."
Le professeur Brey est coordinateur du projet SIENNA, qui élabore des recommandations et des codes de conduite pour une gamme de technologies émergentes, y compris la génomique humaine, amélioration humaine, IA et robotique.
Exploitation minière
"La technologie de l'information a, bien sûr, avait déjà un impact majeur sur la confidentialité via Internet et les appareils mobiles que nous utilisons, mais l'intelligence artificielle est capable de combiner différents types d'informations et de les exploiter d'une manière qui révèle des informations et des idées fondamentalement nouvelles sur les personnes, " a déclaré le professeur Brey. " Il peut le faire d'une manière très rapide et efficace. "
La technologie de l'IA ouvre la porte à l'analyse en temps réel du comportement des gens, émotions ainsi que la capacité de déduire des détails sur leur état mental ou leurs intentions.
"C'est quelque chose qui n'était pas possible auparavant, " a déclaré le professeur Brey. " Alors, ce que vous faites avec ces informations soulève de nouveaux types de préoccupations concernant la confidentialité. "
L'équipe SIENNA anime des ateliers, consultations d'experts et sondages d'opinion visant à identifier les préoccupations des citoyens dans 11 pays. Ils se préparent maintenant à rédiger un ensemble de recommandations que ceux qui travaillent avec l'IA et d'autres technologies peuvent transformer en normes qui garantiront que les considérations éthiques et relatives aux droits de l'homme sont bien ancrées au stade de la conception.
Cette compréhension plus large du public de la façon dont la technologie est susceptible de les affecter pourrait être cruciale pour la survie de l'IA à long terme, selon le professeur Stahl.
"Si nous n'obtenons pas la bonne éthique, alors les gens vont refuser de l'utiliser et cela anéantira tout progrès technique, " il a dit.