• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les drones décideront bientôt qui tuer

    Les algorithmes pourront bientôt décider qui cibler. Crédit :US Air Force

    L'armée américaine a récemment annoncé qu'elle développait les premiers drones capables de repérer et de cibler des véhicules et des personnes à l'aide de l'intelligence artificielle (IA). C'est un grand pas en avant. Alors que les drones militaires actuels sont toujours contrôlés par des personnes, cette nouvelle technologie décidera qui tuer avec presque aucune implication humaine.

    Une fois terminé, ces drones représenteront la militarisation ultime de l'IA et déclencheront de vastes implications juridiques et éthiques pour la société au sens large. Il y a une chance que la guerre passe du combat à l'extermination, perdre tout semblant d'humanité dans le processus. À la fois, il pourrait élargir la sphère de la guerre afin que les compagnies, les ingénieurs et les scientifiques qui construisent l'IA deviennent des cibles militaires valables.

    Les drones militaires mortels existants comme le MQ-9 Reaper sont soigneusement contrôlés et pilotés par satellite. Si un pilote largue une bombe ou tire un missile, un opérateur de capteur humain le guide activement sur la cible choisie à l'aide d'un laser.

    Finalement, l'équipage a l'éthique finale, responsabilité légale et opérationnelle de tuer des cibles humaines désignées. Comme le déclare un opérateur de Reaper :« Je suis tout à fait d'avis que je laisserais un insurgé, quelle que soit l'importance d'une cible, s'enfuir plutôt que de tirer un tir risqué qui pourrait tuer des civils.

    Même avec ces meurtres de drones, émotions humaines, les jugements et l'éthique sont toujours restés au centre de la guerre. L'existence de traumatismes mentaux et de troubles de stress post-traumatique (TSPT) chez les opérateurs de drones montre l'impact psychologique du meurtre à distance.

    Un pilote MQ-9 Reaper. Crédit :US Air Force

    Et cela pointe en fait vers un argument militaire et éthique possible de Ronald Arkin, à l'appui des drones tueurs autonomes. Peut-être que si ces drones larguent les bombes, les problèmes psychologiques parmi les membres d'équipage peuvent être évités. La faiblesse de cet argument est qu'il n'est pas nécessaire d'être responsable d'un meurtre pour en être traumatisé. Des spécialistes du renseignement et d'autres militaires analysent régulièrement les images graphiques des frappes de drones. La recherche montre qu'il est possible de subir un préjudice psychologique en visionnant fréquemment des images d'une extrême violence.

    Quand j'ai interviewé plus de 100 membres de l'équipe de Reaper pour un livre à venir, toutes les personnes à qui j'ai parlé et qui ont mené des frappes meurtrières de drones croyaient que, finalement, ce devrait être un humain qui appuie sur la gâchette finale. Supprimez l'humain et vous supprimez également l'humanité de la décision de tuer.

    Des conséquences graves

    La perspective de drones totalement autonomes modifierait radicalement les processus et les décisions complexes qui sous-tendent les assassinats militaires. Mais la responsabilité légale et éthique ne disparaît pas d'une manière ou d'une autre si vous supprimez la surveillance humaine. Au lieu, la responsabilité incombera de plus en plus à d'autres personnes, y compris les scientifiques de l'intelligence artificielle.

    Les implications juridiques de ces développements deviennent déjà évidentes. En vertu du droit international humanitaire actuel, les installations à « double usage » – celles qui développent des produits pour des applications à la fois civiles et militaires – peuvent être attaquées dans les bonnes circonstances. Par exemple, pendant la guerre du Kosovo en 1999, la raffinerie de pétrole de Pancevo a été attaquée car elle pouvait alimenter des chars yougoslaves ainsi que des voitures civiles.

    Une faucheuse MQ-9. Crédit :US Air Force

    Avec un système d'arme de drone autonome, certaines lignes de code informatique seraient presque certainement classées à double usage. Des entreprises comme Google, ses employés ou ses systèmes, pourrait devenir susceptible d'être attaqué par un État ennemi. Par exemple, si le logiciel d'IA de reconnaissance d'images Project Maven de Google est intégré à un drone militaire autonome américain, Google pourrait se retrouver impliqué dans l'affaire du « meurtre » de drones, comme pourrait le faire tout autre contributeur civil à de tels systèmes autonomes meurtriers.

    Ethiquement, il y a encore des problèmes encore plus sombres. Tout l'intérêt des algorithmes d'auto-apprentissage - des programmes qui apprennent indépendamment de toutes les données qu'ils peuvent collecter - que la technologie utilise est qu'ils deviennent meilleurs quelle que soit la tâche qui leur est confiée. Si un drone autonome mortel doit s'améliorer dans son travail grâce à l'auto-apprentissage, quelqu'un devra décider d'un stade de développement acceptable – combien il lui reste à apprendre – auquel il peut être déployé. Dans l'apprentissage automatique militarisé, cela signifie politique, les dirigeants militaires et industriels devront spécifier combien de morts civiles seront considérées comme acceptables à mesure que la technologie sera affinée.

    Les expériences récentes d'IA autonome dans la société devraient servir d'avertissement. L'expérience fatale d'Uber avec une Tesla autonome garantit à peu près qu'il y aura des morts involontaires de drones autonomes à mesure que les bogues informatiques seront résolus.

    Si les machines décident qui meurt, surtout à grande échelle, alors ce à quoi nous assistons, c'est l'extermination. Tout gouvernement ou armée déclenchant de telles forces violerait les valeurs qu'il prétend défendre. En comparaison, un pilote de drone aux prises avec une décision « tuer ou ne pas tuer » devient le dernier vestige de l'humanité dans l'entreprise souvent inhumaine de la guerre.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com