• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> Autres
    Israël accusé d'utiliser l'IA pour cibler des milliers de personnes à Gaza, alors que les algorithmes tueurs dépassent le droit international

    Crédit :Pixabay/CC0 Domaine public

    L’armée israélienne a utilisé un nouveau système d’intelligence artificielle (IA) pour générer des listes de dizaines de milliers de cibles humaines en vue d’éventuelles frappes aériennes à Gaza, selon un rapport publié la semaine dernière. Le rapport provient du magazine à but non lucratif +972 Magazine, dirigé par des journalistes israéliens et palestiniens.



    Le rapport cite des entretiens avec six sources anonymes des services de renseignement israéliens. Les sources affirment que le système, connu sous le nom de Lavender, a été utilisé avec d'autres systèmes d'IA pour cibler et assassiner des militants présumés, dont beaucoup dans leur propre domicile, causant un grand nombre de victimes civiles.

    Selon un autre article du Guardian, basé sur les mêmes sources que l'article +972, un officier du renseignement a déclaré que le système "rendait plus facile" l'exécution d'un grand nombre de frappes, parce que "la machine le faisait froidement".

    Alors que les armées du monde entier s'empressent d'utiliser l'IA, ces rapports nous montrent à quoi cela peut ressembler :une guerre à grande vitesse avec une précision limitée et peu de surveillance humaine, avec un coût élevé pour les civils.

    L'IA militaire à Gaza n'est pas nouvelle

    Les Forces de défense israéliennes démentent bon nombre des affirmations contenues dans ces rapports. Dans une déclaration au Guardian, l'entreprise a déclaré qu'elle "n'utilise pas de système d'intelligence artificielle permettant d'identifier les terroristes". Il précise que Lavender n'est pas un système d'IA mais "simplement une base de données dont le but est de croiser les sources de renseignement".

    Mais en 2021, le Jerusalem Post a rapporté qu'un responsable du renseignement avait déclaré qu'Israël venait de gagner sa première « guerre contre l'IA » – un conflit antérieur avec le Hamas – en utilisant un certain nombre de systèmes d'apprentissage automatique pour passer au crible les données et produire des cibles. La même année, un livre intitulé The Human-Machine Team, qui présente une vision de la guerre basée sur l'IA, a été publié sous un pseudonyme par un auteur récemment révélé être le chef d'une unité clé du renseignement clandestin israélien.

    L’année dernière, un autre rapport +972 indiquait qu’Israël utilisait également un système d’IA appelé Habsora pour identifier les bâtiments et installations militants potentiels à bombarder. Selon le rapport, Habsora génère des cibles « presque automatiquement », et un ancien officier des renseignements l'a décrit comme « une usine d'assassinats de masse ».

    Le récent rapport +972 affirme également qu'un troisième système, appelé Où est papa ?, surveille les cibles identifiées par Lavender et alerte les militaires lorsqu'ils rentrent chez eux, souvent auprès de leur famille.

    Mort par algorithme

    Plusieurs pays se tournent vers les algorithmes à la recherche d’un avantage militaire. Le projet Maven de l'armée américaine fournit un ciblage par l'IA qui a été utilisé au Moyen-Orient et en Ukraine. La Chine s'empresse également de développer des systèmes d'IA pour analyser les données, sélectionner des cibles et aider à la prise de décision.

    Les partisans de l'IA militaire affirment qu'elle permettra une prise de décision plus rapide, une plus grande précision et une réduction des pertes en temps de guerre.

    Pourtant, l’année dernière, Middle East Eye a rapporté qu’un service de renseignement israélien avait déclaré que l’examen humain de chaque cible générée par l’IA à Gaza n’était « pas du tout réalisable ». Une autre source a déclaré à +972 qu'ils "investiraient personnellement 20 secondes pour chaque cible", ce qui n'était qu'un "tampon d'approbation automatique".

    La réponse des Forces de défense israéliennes au rapport le plus récent indique que « les analystes doivent procéder à des examens indépendants, au cours desquels ils vérifient que les cibles identifiées répondent aux définitions pertinentes conformément au droit international ».

    En ce qui concerne l’exactitude, le dernier rapport +972 affirme que Lavender automatise le processus d’identification et de recoupement pour garantir qu’une cible potentielle est un haut responsable militaire du Hamas. Selon le rapport, Lavender a assoupli les critères de ciblage pour inclure le personnel de rang inférieur et les normes de preuve plus faibles, et a commis des erreurs dans « environ 10 % des cas ».

    Le rapport affirme également qu'un officier des renseignements israéliens a déclaré qu'en raison de la campagne Où est papa ? Dans ce système, les cibles seraient bombardées dans leurs maisons « sans hésitation, comme première option », entraînant des pertes civiles. L'armée israélienne déclare qu'elle « rejette catégoriquement toute affirmation concernant toute politique visant à tuer des dizaines de milliers de personnes dans leurs maisons ».

    Règles pour l'IA militaire ?

    À mesure que l’utilisation militaire de l’IA devient plus courante, les préoccupations éthiques, morales et juridiques sont largement passées au second plan. Il n'existe jusqu'à présent aucune règle claire, universellement acceptée ou juridiquement contraignante concernant l'IA militaire.

    Les Nations Unies discutent depuis plus de dix ans des « systèmes d’armes létaux autonomes ». Il s'agit d'appareils capables de prendre des décisions de ciblage et de tir sans intervention humaine, parfois appelés « robots tueurs ». L'année dernière, des progrès ont été constatés.

    L'Assemblée générale de l'ONU a voté en faveur d'un nouveau projet de résolution visant à garantir que les algorithmes « ne doivent pas contrôler totalement les décisions impliquant des meurtres ». En octobre dernier, les États-Unis ont également publié une déclaration sur l’utilisation militaire responsable de l’IA et l’autonomie, qui a depuis été approuvée par 50 autres États. Le premier sommet sur l'utilisation responsable de l'IA militaire s'est également tenu l'année dernière, co-organisé par les Pays-Bas et la République de Corée.

    Dans l'ensemble, les règles internationales sur l'utilisation de l'IA militaire ont du mal à suivre le rythme de la ferveur des États et des sociétés d'armement pour une guerre de haute technologie basée sur l'IA.

    Face à "l'inconnu"

    Certaines startups israéliennes qui fabriquent des produits basés sur l’IA feraient valoir leur utilisation à Gaza. Pourtant, les reportages sur l'utilisation des systèmes d'IA à Gaza suggèrent à quel point l'IA est loin du rêve d'une guerre de précision, créant au contraire de graves dommages humanitaires.

    L'échelle industrielle à laquelle les systèmes d'IA comme Lavender peuvent générer des cibles « déplace également les humains par défaut » dans la prise de décision.

    La volonté d'accepter les suggestions de l'IA sans pratiquement aucun examen humain élargit également la portée des cibles potentielles, infligeant davantage de dommages.

    Créer un précédent

    Les rapports sur Lavender et Habsora nous montrent ce que l’IA militaire actuelle est déjà capable de faire. Les risques futurs liés à l’IA militaire pourraient encore augmenter.

    L'analyste militaire chinois Chen Hanghui a imaginé par exemple une future « singularité du champ de bataille », dans laquelle les machines prendraient des décisions et agiraient à un rythme trop rapide pour qu'un humain puisse les suivre. Dans ce scénario, nous ne sommes plus que des spectateurs ou des victimes.

    Une étude publiée plus tôt cette année a lancé une autre mise en garde. Des chercheurs américains ont mené une expérience dans laquelle de grands modèles linguistiques tels que GPT-4 jouaient le rôle de nations dans un exercice de wargaming. Les modèles se sont presque inévitablement retrouvés piégés dans des courses aux armements et ont intensifié les conflits de manière imprévisible, notamment en utilisant des armes nucléaires.

    La façon dont le monde réagit aux utilisations actuelles de l’IA militaire – comme nous le voyons à Gaza – est susceptible de créer un précédent pour le développement et l’utilisation futurs de cette technologie.

    Fourni par The Conversation

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.




    © Science https://fr.scienceaq.com