• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Pourquoi la technologie met les droits humains en danger

    Crédit :Spainter_vfx/Shutterstock.com

    Des films tels que 2001 :L'Odyssée de l'Espace , Coureur de lame et Le Terminateur amené des robots voyous et des systèmes informatiques sur nos écrans de cinéma. Mais ces jours-ci, de tels spectacles classiques de science-fiction ne semblent pas si éloignés de la réalité.

    De plus en plus, nous vivons, travailler et jouer avec des technologies informatiques autonomes et intelligentes. Ces systèmes comprennent des logiciels et du matériel avec la capacité de raisonnement et de prise de décision indépendants. Ils travaillent pour nous dans l'usine; ils décident si nous pouvons obtenir une hypothèque; ils suivent et mesurent nos niveaux d'activité et de forme physique ; ils nettoient le sol de nos salons et coupent nos pelouses.

    Les systèmes autonomes et intelligents ont le potentiel d'affecter presque tous les aspects de notre vie sociale, économique, vie politique et vie privée, y compris les aspects quotidiens banals. Une grande partie de cela semble innocent, mais il y a lieu de s'inquiéter. Les technologies informatiques ont un impact sur tous les droits humains, du droit à la vie au droit à la vie privée, liberté d'expression aux droits sociaux et économiques. Alors comment défendre les droits humains dans un paysage technologique de plus en plus façonné par la robotique et l'intelligence artificielle (IA) ?

    IA et droits humains

    D'abord, il existe une réelle crainte que l'augmentation de l'autonomie des machines ne remette en cause le statut de l'homme. Cette crainte est aggravée par un manque de clarté quant à savoir qui sera tenu de rendre des comptes, que ce soit au sens juridique ou moral, quand les machines intelligentes font du mal. Mais je ne suis pas sûr que le centre de notre préoccupation pour les droits de l'homme doive vraiment se trouver sur les robots voyous, comme il semble à l'heure actuelle. Plutôt, nous devrions nous inquiéter de l'utilisation humaine des robots et de l'intelligence artificielle et de leur déploiement dans des politiques injustes et inégales, militaire, contextes économiques et sociaux.

    Cette inquiétude est particulièrement pertinente en ce qui concerne les systèmes d'armes létales autonomes (LAWS), souvent décrits comme des robots tueurs. Alors que nous nous dirigeons vers une course aux armements de l'IA, des universitaires et militants des droits de l'homme tels que Christof Heyns, l'ancien rapporteur spécial de l'ONU sur les affaires extrajudiciaires, exécutions sommaires ou arbitraires, craignent que l'utilisation de LAWS ne place des systèmes robotiques autonomes en charge des décisions de vie ou de mort, avec un contrôle humain limité ou inexistant.

    L'IA révolutionne également le lien entre la guerre et les pratiques de surveillance. Des groupes tels que l'International Committee for Robot Arms Control (ICRAC) ont récemment exprimé leur opposition à la participation de Google au projet Maven, un programme militaire qui utilise l'apprentissage automatique pour analyser les images de surveillance des drones, qui peut être utilisé pour des exécutions extrajudiciaires. L'ICRAC a fait appel à Google pour s'assurer que les données qu'elle collecte sur ses utilisateurs ne soient jamais utilisées à des fins militaires, rejoindre les protestations des employés de Google contre l'implication de l'entreprise dans le projet. Google a récemment annoncé qu'il ne renouvellerait pas son contrat.

    En 2013, l'étendue des pratiques de surveillance a été mise en évidence par les révélations d'Edward Snowden. Celles-ci nous ont beaucoup appris sur la menace pour le droit à la vie privée et le partage de données entre services de renseignement, les agences gouvernementales et les entreprises privées. La récente controverse entourant la collecte de données personnelles par Cambridge Analytica via l'utilisation de plateformes de médias sociaux telles que Facebook continue de susciter de sérieuses appréhensions, cette fois sur la manipulation et l'ingérence dans les élections démocratiques qui portent atteinte au droit à la liberté d'expression.

    Pendant ce temps, les analystes de données critiques contestent les pratiques discriminatoires associées à ce qu'ils appellent le "problème des blancs" de l'IA. C'est la préoccupation que les systèmes d'IA formés sur les données existantes reproduisent les stéréotypes raciaux et de genre existants qui perpétuent des pratiques discriminatoires dans des domaines tels que la police, décisions judiciaires ou l'emploi.

    Des robots ambigus

    La menace potentielle des technologies informatiques pour les droits de l'homme et les La sécurité politique et numérique a été mise en évidence dans une étude récemment publiée sur l'utilisation malveillante de l'intelligence artificielle. Les préoccupations exprimées dans ce rapport de l'Université de Cambridge doivent être prises au sérieux. Mais comment faire face à ces menaces ? Les droits humains sont-ils prêts pour l'ère de la robotique et de l'IA ?

    Des efforts sont en cours pour mettre à jour les principes des droits de l'homme existants pour cette époque. Il s'agit notamment des Principes directeurs et directeurs des Nations Unies relatifs aux entreprises et aux droits de l'homme, tente d'écrire une Magna Carta pour l'ère numérique et les principes Asilomar AI du Future of Life Institute, qui identifient des lignes directrices pour la recherche éthique, adhésion aux valeurs et engagement en faveur du développement bénéfique à long terme de l'IA.

    Ces efforts sont louables mais insuffisants. Gouvernements et agences gouvernementales, les partis politiques et les entreprises privées, en particulier les grandes entreprises technologiques, doivent s'engager envers les utilisations éthiques de l'IA. Nous avons également besoin d'un contrôle législatif efficace et exécutoire.

    Quelles que soient les nouvelles mesures que nous introduisons, il est important de reconnaître que nos vies sont de plus en plus enchevêtrées avec des machines autonomes et des systèmes intelligents. Cet enchevêtrement améliore le bien-être humain dans des domaines tels que la recherche médicale et le traitement, dans notre système de transport, dans les milieux de soins sociaux et dans les efforts de protection de l'environnement.

    Mais dans d'autres domaines, cet enchevêtrement ouvre des perspectives inquiétantes. Les technologies informatiques sont utilisées pour surveiller et suivre nos actions et comportements, trace nos pas, Notre emplacement, notre santé, nos goûts et nos amitiés. Ces systèmes façonnent le comportement humain et nous poussent vers des pratiques d'autosurveillance qui limitent notre liberté et sapent les idées et les idéaux des droits humains.

    Et c'est là que réside le nœud :la capacité de double usage des technologies informatiques brouille la frontière entre les pratiques bienfaisantes et malveillantes. Quoi de plus, les technologies informatiques sont profondément impliquées dans les relations de pouvoir inégales entre les citoyens, l'Etat et ses agences, et les sociétés privées. S'il n'est pas assujetti à des systèmes nationaux et internationaux efficaces de freins et contrepoids, ils constituent une menace réelle et préoccupante pour nos droits humains.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com