• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'IA a déjà été militarisée - et cela montre pourquoi nous devrions interdire les robots tueurs

    Crédit :Oleg Yarko/Shutterstock

    Une ligne de démarcation se dessine dans le débat sur les soi-disant robots tueurs. De nombreux pays veulent voir une nouvelle loi internationale sur les systèmes d'armes autonomes qui peuvent cibler et tuer des personnes sans intervention humaine. Mais les pays qui développent déjà de telles armes essaient plutôt de mettre en évidence leurs avantages supposés.

    J'ai été témoin de ce gouffre grandissant lors d'une récente réunion des Nations Unies de plus de 70 pays à Genève, où les partisans des armes autonomes, y compris les États-Unis, Australie et Corée du Sud, étaient plus bruyants que jamais. Lors de la réunion, les États-Unis ont affirmé que de telles armes pourraient en fait faciliter le respect du droit international humanitaire en rendant l'action militaire plus précise.

    Pourtant, il est hautement spéculatif de dire que les "robots tueurs" seront un jour capables de respecter le droit humanitaire. Et tandis que les politiciens continuent de se disputer à ce sujet, la diffusion de l'autonomie et de l'intelligence artificielle dans la technologie militaire existante établit déjà effectivement des normes indésirables pour son rôle dans l'utilisation de la force.

    Une série de lettres ouvertes d'éminents chercheurs dénonçant la militarisation de l'intelligence artificielle a contribué à attirer l'attention du public sur le débat sur les systèmes militaires autonomes. Le problème est que le débat est encadré comme si cette technologie était quelque chose du futur. En réalité, les questions qu'il soulève sont effectivement déjà traitées par les systèmes existants.

    La plupart des systèmes de défense aérienne ont déjà une autonomie importante dans le processus de ciblage, et les avions militaires ont des caractéristiques hautement automatisées. Cela signifie que les "robots" sont déjà impliqués dans l'identification et l'engagement des cibles.

    Pendant ce temps, une autre question importante soulevée par la technologie actuelle est absente de la discussion en cours. Les drones télécommandés sont actuellement utilisés par les militaires de plusieurs pays pour larguer des bombes sur des cibles. Mais nous savons d'après les incidents en Afghanistan et ailleurs que les images de drones ne suffisent pas à distinguer clairement les civils des combattants. Nous savons également que la technologie actuelle de l'IA peut contenir des biais importants qui affectent sa prise de décision, souvent avec des effets nocifs.

    Les humains appuient toujours sur la gâchette, mais pour combien de temps ? Crédit :Burlingham/Shutterstock

    Étant donné que les futurs avions entièrement autonomes seront probablement utilisés de la même manière que les drones, ils suivront probablement les pratiques mises en place par les drones. Pourtant, les États utilisant des technologies autonomes existantes les excluent du débat plus large en les qualifiant de « semi-autonomes » ou de « systèmes hérités ». De nouveau, cela rend la question des "robots tueurs" plus futuriste qu'elle ne l'est en réalité. Cela empêche également la communauté internationale d'examiner de plus près si ces systèmes sont fondamentalement appropriés au regard du droit humanitaire.

    Plusieurs principes clés du droit international humanitaire nécessitent des jugements humains délibérés dont les machines sont incapables. Par exemple, la définition légale de qui est un civil et qui est un combattant n'est pas écrite d'une manière qui pourrait être programmée dans l'IA, et les machines n'ont pas la connaissance de la situation et la capacité d'inférer les choses nécessaires pour prendre cette décision.

    Prise de décision invisible

    Plus profondément, plus les cibles sont choisies et potentiellement attaquées par des machines, moins nous en savons sur la façon dont ces décisions sont prises. Les drones s'appuient déjà fortement sur des données de renseignement traitées par des algorithmes de "boîte noire" très difficiles à appréhender pour choisir leurs cibles proposées. Cela rend plus difficile pour les opérateurs humains qui appuient sur la gâchette de remettre en question les propositions cibles.

    Alors que l'ONU continue de débattre de cette question, il convient de noter que la plupart des pays favorables à l'interdiction des armes autonomes sont des pays en développement, qui sont généralement moins susceptibles d'assister aux pourparlers internationaux sur le désarmement. Ainsi, le fait qu'ils soient prêts à se prononcer fermement contre les armes autonomes rend leur action d'autant plus importante. Leur histoire de subir des interventions et des invasions de plus riches, les pays plus puissants (comme certains de ceux en faveur des armes autonomes) nous rappelle également qu'ils sont les plus menacés par cette technologie.

    Compte tenu de ce que nous savons des systèmes autonomes existants, nous devrions être très préoccupés par le fait que les "robots tueurs" aggravent les violations du droit humanitaire, pas moins, probable. Cette menace ne peut être évitée qu'en négociant une nouvelle loi internationale limitant leur utilisation.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com