• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Amazone, Microsoft, mettre le monde en danger d'IA tueuse:rapport

    Des manifestants à Berlin participent à une campagne "Stop Killer Robots" organisée par l'ONG allemande "Facing Finance" pour interdire ce qu'ils appellent les robots tueurs, en mars 2019

    Amazone, Microsoft et Intel sont parmi les principales entreprises technologiques mettant le monde en danger par le développement de robots tueurs, selon un rapport qui a interrogé les principaux acteurs du secteur sur leur position sur les armes autonomes létales.

    L'ONG néerlandaise Pax a classé 50 entreprises selon trois critères :si elles développaient une technologie qui pourrait être pertinente pour l'IA mortelle, s'ils travaillaient sur des projets militaires connexes, et s'ils s'étaient engagés à s'abstenir de contribuer à l'avenir.

    "Pourquoi des entreprises comme Microsoft et Amazon ne nient-elles pas qu'elles développent actuellement ces armes très controversées, qui pourrait décider de tuer des gens sans implication humaine directe ?", a déclaré Frank Slijper, auteur principal du rapport publié cette semaine.

    L'utilisation de l'IA pour permettre aux systèmes d'armes de sélectionner et d'attaquer de manière autonome des cibles a suscité des débats éthiques ces dernières années, avec des critiques avertissant qu'ils mettraient en péril la sécurité internationale et annonceraient une troisième révolution dans la guerre après la poudre à canon et la bombe atomique.

    Un panel d'experts gouvernementaux a débattu des options politiques concernant les armes autonomes létales lors d'une réunion de la Convention des Nations Unies sur certaines armes classiques à Genève mercredi.

    Google, qui a publié l'année dernière des principes directeurs évitant l'IA pour une utilisation dans les systèmes d'armes, faisait partie des sept entreprises qui se sont engagées dans les « meilleures pratiques » dans l'analyse portant sur 12 pays, tout comme la Softbank japonaise, surtout connu pour son robot humanoïde Pepper.

    Vingt-deux entreprises étaient de « préoccupation moyenne, " tandis que 21 sont tombés dans une catégorie " très préoccupante ", notamment Amazon et Microsoft qui soumissionnent tous deux pour un contrat de 10 milliards de dollars avec le Pentagone pour fournir l'infrastructure cloud à l'armée américaine.

    D'autres dans le groupe « hautement préoccupant » comprennent Palantir, une entreprise issue d'une organisation de capital-risque soutenue par la CIA qui a remporté un contrat de 800 millions de dollars pour développer un système d'IA "qui peut aider les soldats à analyser une zone de combat en temps réel".

    « Les armes autonomes deviendront inévitablement des armes de destruction massive évolutives, parce que si l'humain n'est pas dans la boucle, alors une seule personne peut lancer un million d'armes ou cent millions d'armes, " Stuart Russell, professeur d'informatique à l'Université de Californie, Berkeley a déclaré mercredi à l'AFP.

    "Le fait est que les armes autonomes vont être développées par des entreprises, et en termes de campagne pour empêcher la généralisation des armes autonomes, ils peuvent jouer un très grand rôle, " il ajouta.

    Le développement de l'IA à des fins militaires a déclenché des débats et des protestations au sein de l'industrie :l'année dernière, Google a refusé de renouveler un contrat du Pentagone appelé Project Maven, qui a utilisé l'apprentissage automatique pour distinguer les personnes et les objets dans les vidéos de drones.

    Il a également abandonné la course pour Joint Enterprise Defence Infrastructure (JEDI), le contrat cloud qu'Amazon et Microsoft espèrent conclure.

    Le rapport a noté que les employés de Microsoft avaient également exprimé leur opposition à un contrat de l'armée américaine pour un casque de réalité augmentée, HoloLens, qui vise à "augmenter la létalité" sur le champ de bataille.

    À quoi ils pourraient ressembler

    Selon Russell, "tout ce qui est actuellement une arme, les gens travaillent sur des versions autonomes, que ce soit des chars, avions de chasse, ou sous-marins."

    Le Harpy d'Israël est un drone autonome qui existe déjà, « flâner » dans une zone cible et sélectionner les sites à atteindre.

    Plus inquiétantes encore sont les nouvelles catégories d'armes autonomes qui n'existent pas encore – celles-ci pourraient inclure des mini-drones armés comme ceux présentés dans le court métrage de 2017 « Slaughterbots ».

    "Avec ce type d'arme, vous pourriez envoyer un million d'entre eux dans un conteneur ou un avion cargo - ils ont donc la capacité destructrice d'une bombe nucléaire mais laissent tous les bâtiments derrière eux, " dit Russell.

    Grâce à la technologie de reconnaissance faciale, les drones pourraient « anéantir un groupe ethnique ou un sexe, ou en utilisant les informations des réseaux sociaux, vous pourriez éliminer toutes les personnes ayant une opinion politique. »

    L'Union européenne a publié en avril des lignes directrices sur la façon dont les entreprises et les gouvernements devraient développer l'IA, y compris la nécessité d'une surveillance humaine, œuvrer au bien-être sociétal et environnemental de manière non discriminatoire, et en respectant la vie privée.

    Russell a fait valoir qu'il était essentiel de passer à l'étape suivante sous la forme d'une interdiction internationale de l'IA mortelle, que l'on pourrait résumer comme "les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployé, ou utilisé."

    © 2019 AFP




    © Science https://fr.scienceaq.com