L'armée américaine teste déjà un système robotique armé modulaire avancé. Crédit :Lance Cpl. Julien Rodarte, Corps des Marines des États-Unis
Lors de la rédaction d'un traité sur les lois de la guerre à la fin du XIXe siècle, les diplomates ne pouvaient pas prévoir l'avenir du développement des armes. Mais ils ont adopté une norme juridique et morale pour juger les nouvelles technologies non couvertes par le libellé des traités existants.
Cette norme, connue sous le nom de clause de Martens, a survécu à des générations de droit international humanitaire et a acquis une pertinence renouvelée dans un monde où les armes autonomes sont sur le point de décider par elles-mêmes qui tirer et quand. La clause Martens appelle les pays à ne pas utiliser d'armes qui s'écartent « des principes d'humanité et des impératifs de la conscience publique ».
J'étais l'auteur principal d'un nouveau rapport de Human Rights Watch et de la Harvard Law School International Human Rights Clinic qui explique pourquoi des armes entièrement autonomes seraient contraires aux principes d'humanité et aux impératifs de la conscience publique. Nous avons constaté que pour se conformer à la clause Martens, les pays devraient adopter un traité interdisant le développement, fabrication et l'utilisation de ces armes.
Des représentants de plus de 70 pays se réuniront du 27 au 31 août aux Nations Unies à Genève pour débattre de la manière de résoudre les problèmes liés à ce qu'ils appellent les systèmes d'armes autonomes létaux. Ces pays, qui sont parties à la Convention sur les armes classiques, ont discuté de la question pendant cinq ans. Mes co-auteurs et moi pensons qu'il est temps qu'ils agissent et acceptent de commencer à négocier une interdiction l'année prochaine.
Établir des règles pour l'inconnaissable
La clause Martens fournit une base de protection pour les civils et les soldats en l'absence de droit conventionnel spécifique. La clause établit également une norme pour évaluer les nouvelles situations et technologies qui n'étaient pas envisagées auparavant.
Armes entièrement autonomes, parfois appelés "robots tueurs, " sélectionnerait et engagerait des cibles sans contrôle humain significatif. Ils constitueraient une étape dangereuse au-delà des drones armés actuels car il n'y aurait aucun humain dans la boucle pour déterminer quand tirer et sur quelle cible. Bien qu'il n'existe pas encore d'armes entièrement autonomes, Chine, Israël, Russie, Corée du Sud, le Royaume-Uni et les États-Unis travaillent tous à leur développement. Ils soutiennent que la technologie traiterait les informations plus rapidement et empêcherait les soldats d'entrer sur le champ de bataille.
La possibilité que des armes entièrement autonomes puissent bientôt devenir une réalité rend impératif pour ces pays et d'autres d'appliquer la clause de Martens et d'évaluer si la technologie offenserait l'humanité fondamentale et la conscience publique. Notre analyse révèle que des armes entièrement autonomes échoueraient au test sur les deux plans.
Principes d'humanité
L'histoire de la clause de Martens montre qu'il s'agit d'un principe fondamental du droit international humanitaire. Issu de la Convention de La Haye de 1899, des versions de celui-ci figurent dans les quatre Conventions de Genève et le Protocole additionnel I. Il est cité dans de nombreux traités de désarmement. En 1995, les préoccupations suscitées par la clause Martens ont motivé les pays à adopter une interdiction préventive des lasers aveuglants.
Les principes d'humanité exigent un traitement humain des autres et le respect de la vie et de la dignité humaines. Les armes entièrement autonomes ne pourraient pas répondre à ces exigences car elles seraient incapables de ressentir de la compassion, une émotion qui incite les gens à minimiser la souffrance et la mort. Les armes seraient également dépourvues du jugement juridique et éthique nécessaire pour garantir qu'elles protègent les civils dans des situations de conflit complexes et imprévisibles.
Sous surveillance humaine – pour l'instant. Crédit :Pfc. Rhita Daniel, Corps des Marines des États-Unis
En outre, comme des machines inanimées, ces armes ne pouvaient pas vraiment comprendre la valeur d'une vie individuelle ou la signification de sa perte. Leurs algorithmes traduiraient des vies humaines en valeurs numériques. En prenant des décisions mortelles basées sur de tels algorithmes, ils réduiraient leurs cibles humaines – qu'elles soient civiles ou militaires – à des objets, porter atteinte à leur dignité humaine.
Les dictats de la conscience publique
L'opposition croissante aux armes totalement autonomes montre qu'elles sont également en conflit avec les impératifs de la conscience publique. Gouvernements, les experts et le grand public se sont tous opposés, souvent pour des raisons morales, à la possibilité de perdre le contrôle humain sur l'usage de la force.
À ce jour, 26 pays ont expressément soutenu une interdiction, y compris la Chine. La plupart des pays qui se sont exprimés lors des réunions de l'ONU sur les armes conventionnelles ont appelé au maintien d'une certaine forme de contrôle humain significatif sur l'utilisation de la force. Exiger un tel contrôle revient en fait à interdire les armes qui fonctionnent sans qu'une personne décide quand tuer.
Des milliers de scientifiques et d'experts en intelligence artificielle ont approuvé une interdiction et exigé une action des Nations Unies. En juillet 2018, ils ont pris l'engagement de ne pas aider au développement ou à l'utilisation d'armes entièrement autonomes. Les grandes entreprises ont également demandé l'interdiction.
Plus de 160 chefs religieux et plus de 20 lauréats du prix Nobel de la paix ont également condamné la technologie et soutenu une interdiction. Plusieurs sondages d'opinion internationaux et nationaux ont révélé qu'une majorité de personnes qui ont répondu s'opposaient au développement et à l'utilisation d'armes entièrement autonomes.
La campagne pour arrêter les robots tueurs, une coalition de 75 organisations non gouvernementales de 42 pays, has led opposition by nongovernmental groups. Human Rights Watch, for which I work, co-founded and coordinates the campaign.
Other problems with killer robots
Fully autonomous weapons would threaten more than humanity and the public conscience. They would likely violate other key rules of international law. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.
Par ailleurs, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.
Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.
Cet article a été initialement publié sur The Conversation. Lire l'article original.