• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les robots tueurs existent déjà, et ils sont ici depuis très longtemps

    Crédits :Mykola Holyutyak/Shutterstock

    Les humains prendront toujours la décision finale de savoir si les robots armés peuvent tirer, selon un communiqué du département américain de la Défense. Leur clarification intervient au milieu des craintes concernant un nouveau système de ciblage avancé, connu sous le nom d'ATLAS, qui utilisera l'intelligence artificielle dans les véhicules de combat pour cibler et exécuter les menaces. Alors que le public peut se sentir mal à l'aise à propos des soi-disant "robots tueurs", le concept n'a rien de nouveau - des robots "SWORDS" armés de mitrailleuses ont été déployés en Irak dès 2007.

    Notre relation avec les robots militaires remonte encore plus loin que cela. C'est parce que quand les gens disent "robot, " ils peuvent signifier n'importe quelle technologie avec une certaine forme d'élément "autonome" qui lui permet d'effectuer une tâche sans avoir besoin d'une intervention humaine directe.

    Ces technologies existent depuis très longtemps. Pendant la Seconde Guerre mondiale, la fusée de proximité a été développée pour faire exploser les obus d'artillerie à une distance prédéterminée de leur cible. Cela a rendu les obus beaucoup plus efficaces qu'ils ne l'auraient été autrement en augmentant la prise de décision humaine et, dans certains cas, sortir complètement l'humain de la boucle.

    La question n'est donc pas tant de savoir si nous devons utiliser des systèmes d'armes autonomes au combat - nous les utilisons déjà, et ils prennent plusieurs formes. Plutôt, nous devons nous concentrer sur la façon dont nous les utilisons, pourquoi nous les utilisons, et quelle forme – le cas échéant – devrait prendre l'intervention humaine.

    La naissance de la cybernétique

    Mes recherches explorent la philosophie des relations homme-machine, avec un accent particulier sur l'éthique militaire, et la façon dont nous distinguons les humains des machines. Pendant la Seconde Guerre mondiale, le mathématicien Norbert Wiener a jeté les bases de la cybernétique - l'étude de l'interface entre les humains, animaux et machines – dans ses travaux sur la maîtrise des tirs antiaériens. En étudiant les écarts entre le mouvement prévu d'un avion, et son mouvement réel, Wiener et son collègue Julian Bigelow ont proposé le concept de « boucle de rétroaction, " où les écarts pourraient être réintroduits dans le système afin de corriger d'autres prédictions.

    Les systèmes de ciblage autonomes sont nés d'innovations dans les armes anti-aériennes pendant la Seconde Guerre mondiale. Crédit :Zef Art/Shutterstock

    La théorie de Wiener allait donc bien au-delà de la simple augmentation, car la technologie cybernétique pourrait être utilisée pour anticiper les décisions humaines - retirer l'humain faillible de la boucle, pour faire mieux, des décisions plus rapides et rendre les systèmes d'armes plus efficaces.

    Dans les années qui ont suivi la Seconde Guerre mondiale, l'ordinateur a émergé pour s'asseoir aux côtés de la théorie cybernétique pour former un pilier central de la pensée militaire, des « bombes intelligentes » à guidage laser de l'ère vietnamienne aux missiles de croisière et aux drones Reaper.

    Il ne suffit plus de simplement augmenter le guerrier humain comme il l'était au début. La phase suivante consiste à éliminer complètement l'humain – en « maximisant » les résultats militaires tout en minimisant le coût politique associé à la perte de vies alliées. Cela a conduit à l'utilisation généralisée de drones militaires par les États-Unis et leurs alliés. Bien que ces missions soient très controversées, en termes politiques, ils se sont avérés de loin préférables au tollé général provoqué par les morts militaires.

    La machine humaine

    L'une des questions les plus controversées concernant la guerre des drones est le rôle du pilote de drone ou « opérateur ». Comme tout le personnel, ces opérateurs sont tenus par leurs employeurs de « faire du bon travail ». Cependant, les termes du succès sont loin d'être clairs. Comme l'observe la philosophe et critique culturelle Laurie Calhoun :« L'affaire des opérateurs d'UCAV [drone] est de tuer.

    De cette façon, leur tâche n'est pas tant de prendre une décision humaine, mais plutôt de faire le travail pour lequel ils sont employés. Si l'ordinateur leur dit de tuer, y a-t-il vraiment une raison pour qu'ils ne le fassent pas ?

    Un drone militaire moderne. Crédit :Alex LMX/Shutterstock

    Un argument similaire peut être avancé en ce qui concerne le soldat moderne. De la navigation GPS aux liaisons montantes vidéo, les soldats transportent de nombreux appareils qui les relient à un vaste réseau qui les surveille et les contrôle à chaque instant.

    Cela conduit à une énigme éthique. Si le but du soldat est de suivre les ordres à la lettre – avec des caméras utilisées pour assurer la conformité – alors pourquoi nous embêtons-nous avec des soldats humains ? Après tout, les machines sont bien plus efficaces que les êtres humains et ne souffrent pas de la fatigue et du stress de la même manière qu'un humain. Si l'on attend des soldats qu'ils se comportent de manière programmatique, mode robotique de toute façon, alors à quoi bon verser le sang inutile des alliés ?

    La réponse, ici, est que l'humain sert d'alibi ou de forme de « couverture éthique » à ce qui est en réalité, un presque entièrement mécanique, acte robotique. Tout comme le travail de l'opérateur de drone est de superviser le drone contrôlé par ordinateur, le rôle de l'humain dans le nouveau système ATLAS du ministère de la Défense est donc simplement d'agir comme une couverture éthique au cas où les choses tourneraient mal.

    Alors que les drones Predator et Reaper peuvent être au premier plan de l'imagination du public sur l'autonomie militaire et les « robots tueurs, " Ces innovations n'ont rien de nouveau en elles-mêmes. Elles ne sont que les dernières d'une longue série de développements qui remontent à plusieurs décennies.

    Bien que cela puisse réconforter certains lecteurs d'imaginer que l'autonomie de la machine sera toujours subordonnée à la prise de décision humaine, cela manque vraiment le point. Les systèmes autonomes sont depuis longtemps intégrés dans l'armée et nous devons nous préparer aux conséquences.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com