• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Un mouvement croissant de scientifiques réclame l'interdiction des robots tueurs
    Un crâne d'endosquelette du film 'Terminator Genisys.' La prolifération de la technologie de l'intelligence artificielle (IA) génère une vague d'inquiétude de la communauté scientifique mondiale. Gabe Ginsberg/WireImage/Getty Images

    Si vous êtes un fan de la franchise de films "Terminator", vous avez déjà vu un aperçu fictif effrayant d'un champ de bataille dystopique cauchemardesque dans lequel des machines équipées d'intelligence artificielle ont le pouvoir absolu de tuer des humains.

    Alors que les armes entièrement autonomes - le terme technique pour les robots tueurs - ne sont pas encore tout à fait une réalité, l'avancée rapide de la robotique et de l'intelligence artificielle fait naître le spectre d'armées disposant un jour de chars et d'avions capables d'attaquer sans un humain aux commandes.

    Selon un rapport de 2017 du Center for a New American Security, plus de 30 pays possèdent ou développent des drones armés. L'agence de presse russe TASS a également rendu compte en 2017 du développement par ce pays d'un "module de combat" automatisé - un char robotique - capable d'utiliser l'intelligence artificielle pour identifier des cibles et prendre des décisions. Et tandis que la politique américaine actuelle exclut les armes entièrement autonomes, le Pentagone développe des robots aériens et terrestres qui fonctionneraient en essaims de 250 ou plus, effectuer la surveillance et d'autres fonctions pour soutenir les troupes humaines. Et selon le South China Morning Post, La Chine travaille au développement de sous-marins équipés d'intelligence artificielle qui aideraient les commandants à prendre des décisions tactiques.

    L'avenir approche à grands pas

    La ruée rapide vers l'automatisation de la guerre inquiète les scientifiques, et à travers le monde, il y a un mouvement croissant pour arrêter le développement d'armes autonomes avant que la technologie n'ait une chance de proliférer. Près de 4, 000 chercheurs et scientifiques en intelligence artificielle et robotique dans d'autres domaines - y compris SpaceX et le fondateur de Tesla, Elon Musk, Le cofondateur d'Apple, Steve Wozniak, et le regretté astrophysicien Stephen Hawking, ont signé une lettre ouverte au monde, exhortant à l'interdiction des "armes autonomes offensives qui échappent au contrôle humain significatif". Des organisations telles que la Campagne pour arrêter les robots tueurs se font de plus en plus entendre sur la nécessité de restrictions sur une telle technologie.

    "Nous ne sommes plus qu'à quelques années, " Toby Walsh, le professeur Scientia d'intelligence artificielle à l'Université australienne de Nouvelle-Galles du Sud, prévient dans un e-mail. "Les prototypes existent dans toutes les sphères de bataille - dans les airs, par terre, sur la mer et sous la mer."

    Walsh s'est impliqué dans l'effort il y a plusieurs années, lorsqu'il lui apparut qu'« une course aux armements pour développer de telles armes commençait, et nous avons eu l'occasion d'empêcher l'avenir dystopique si souvent décrit par Hollywood."

    Walsh et d'autres chercheurs en IA ont récemment utilisé leur notoriété dans le domaine pour exercer des pressions. Après KAIST (Korea Advanced Institute of Science and Technology), une université de recherche sud-coréenne, a lancé un nouveau pôle dédié aux convergences IA et défense nationale, ils ont envoyé une lettre ouverte au président de KAIST Sung-Chul Shin, menaçant de boycotter à moins qu'il ne fournisse l'assurance que le centre ne développerait pas d'armes entièrement autonomes sans contrôle humain significatif. (Sung a ensuite publié une déclaration affirmant que l'université ne développerait pas de telles armes, selon Times Higher Education.)

    L'Initiative des Nations Unies

    Le mouvement anti-robots tueurs suit également de près les développements à Genève, où des représentants de divers pays se sont réunis en avril 2018 pour une conférence des Nations Unies sur ce qu'il faut faire au sujet des armes autonomes.

    Richard Moyes, le directeur général de l'article 36, une organisation de contrôle des armements basée au Royaume-Uni, dit dans un courriel que les armes autonomes pourraient éroder le cadre juridique qui régit la guerre, qui dépend des humains qui décident si l'usage de la force est légal dans une situation donnée. « Si les machines reçoivent une large licence pour entreprendre des attaques, ces évaluations juridiques humaines ne seront plus basées sur une réelle compréhension des circonstances sur le terrain, " écrit Moyes, lauréat du prix Nobel de la paix en 2017 pour ses travaux sur la réduction des armes nucléaires. « Cela ouvre la voie à une véritable déshumanisation des conflits.

    Les États-Unis soutiendraient vraisemblablement une interdiction des robots tueurs. En 2012, l'administration Obama a publié une directive – que la Maison Blanche Trump a apparemment choisi de poursuivre – exigeant que la technologie des armes autonomes soit conçue « pour permettre aux commandants et aux opérateurs d'exercer des niveaux appropriés de jugement humain sur l'utilisation de la force ». La directive exige également des garanties pour se protéger contre le dysfonctionnement des armes autonomes et le lancement d'attaques par elles-mêmes. Le directeur de la Defense Advanced Research Projects Agency (DARPA), Steven Walker, a déclaré en mars qu'il doutait que les États-Unis autorisent jamais les machines à prendre des décisions sur l'utilisation de la force meurtrière, selon La Colline.

    Dans un courriel, Le porte-parole de la DARPA, Jared Adams, a déclaré que les recherches de l'agence se concentrent plutôt sur "l'étude des moyens de garantir que la technologie améliore la capacité des opérateurs humains à prendre des décisions rapides à des moments critiques plutôt que d'éroder cette capacité". On craint que la dépendance des opérateurs humains vis-à-vis de l'automatisation ne réduise leur connaissance de la situation lorsqu'ils ont besoin de l'appeler - un problème, selon Adams, est illustré par le crash du vol 447 d'Air France en 2009. Les recherches de la DARPA liées à l'autonomie cherchent à trouver un équilibre optimal entre les différents modes de fonctionnement en mettant l'accent sur la fourniture d'une aide à la décision maximale aux combattants, " il dit.

    Pas de consensus international

    Mais interdire les robots tueurs à l'échelle internationale peut s'avérer difficile. Bonnie Docherty, chercheur principal en armement à Human Rights Watch et directeur associé des conflits armés et de la protection civile à l'International Human Rights Clinic de la Harvard Law School, dit dans un e-mail que si la plupart des pays à la conférence de l'ONU sont préoccupés par les armes autonomes, il n'y a pas encore de consensus en faveur d'une interdiction internationale juridiquement contraignante.

    Une interdiction des robots tueurs fonctionnerait-elle ? Un traité international de longue date interdisant les armes chimiques, par exemple, n'a apparemment pas arrêté l'utilisation de telles armes dans la guerre civile syrienne.

    Néanmoins, Docherty a fait valoir que l'interdiction des armes chimiques, les mines antipersonnel et les armes à sous-munitions ont encore sauvé des vies. « De telles lois lient les pays qui les rejoignent, et en stigmatisant les armes problématiques, elles peuvent influencer même les pays qui ne sont pas parties. Toute loi - même contre un crime largement accepté comme le meurtre - peut être violée par un acteur voyou, mais cela ne signifie pas que de telles lois ne doivent pas être adoptées. Le droit a toujours un impact significatif sur les comportements et un nouveau traité international devrait être adopté pour préempter les armes pleinement autonomes, " elle écrit.

    Maintenant c'est intéressant

    La vidéo "Slaughterbots", créé avec l'aide de l'Université de Californie, Stuart Russell, professeur d'informatique et d'ingénierie à Berkeley, dépeint un scénario horrible dans lequel de minuscules drones traquent et assassinent des individus sélectionnés, qui sont identifiés via les réseaux sociaux. L'idée était de dramatiser comment la technologie pourrait être utilisée comme une arme de destruction massive, Russell a expliqué dans une interview avec ABC7 News.

    © Science https://fr.scienceaq.com