En ce 20 décembre, 2019, photo d'archives Le secrétaire à la Défense Mark Esper prend la parole lors d'une conférence de presse au Pentagone à Washington. Le Pentagone adopte de nouveaux principes éthiques alors qu'il se prépare à accélérer son utilisation de la technologie de l'intelligence artificielle sur le champ de bataille. (AP Photo/Susan Walsh, Déposer)
Le Pentagone adopte de nouveaux principes éthiques alors qu'il se prépare à accélérer son utilisation de la technologie de l'intelligence artificielle sur le champ de bataille.
Les nouveaux principes appellent les gens à « exercer des niveaux appropriés de jugement et d'attention » lors du déploiement et de l'utilisation de systèmes d'IA, tels que ceux qui scannent l'imagerie aérienne pour rechercher des cibles.
Ils disent également que les décisions prises par les systèmes automatisés devraient être « traçables » et « gouvernables, " ce qui signifie " il doit y avoir un moyen de les désengager ou de les désactiver " s'ils manifestent un comportement involontaire, a déclaré le lieutenant-général de l'Air Force Jack Shanahan, directeur du Centre commun d'intelligence artificielle du Pentagone.
La pression du Pentagone pour accélérer ses capacités d'IA a alimenté une lutte entre les entreprises technologiques sur un contrat de cloud computing de 10 milliards de dollars connu sous le nom de Joint Enterprise Defense Infrastructure, ou JEDI. Microsoft a remporté le contrat en octobre mais n'a pas pu démarrer le projet de 10 ans car Amazon a poursuivi le Pentagone, arguant que l'antipathie du président Donald Trump envers Amazon et son PDG Jeff Bezos a nui aux chances de l'entreprise de remporter l'offre.
Une directive militaire existante de 2012 exige que les humains contrôlent les armes automatisées, mais ne traite pas des utilisations plus larges de l'IA. Les nouveaux principes américains sont destinés à guider à la fois les applications de combat et non-combat, des opérations de collecte de renseignements et de surveillance à la prévision des problèmes de maintenance des avions ou des navires.
L'approche décrite lundi fait suite aux recommandations formulées l'année dernière par le Defense Innovation Board, un groupe dirigé par l'ancien PDG de Google Eric Schmidt.
Alors que le Pentagone a reconnu que l'IA « soulève de nouvelles ambiguïtés et risques éthiques, " les nouveaux principes ne répondent pas aux restrictions plus strictes préconisées par les partisans du contrôle des armements.
"Je crains que les principes soient un peu un projet de lavage d'éthique, " dit Lucy Suchman, anthropologue qui étudie le rôle de l'IA dans la guerre. "Le mot 'approprié' est ouvert à de nombreuses interprétations."
Shanahan a déclaré que les principes sont intentionnellement larges pour éviter de menotter l'armée américaine avec des restrictions spécifiques qui pourraient devenir obsolètes.
"La technologie s'adapte. La technologie évolue, " il a dit.
Le Pentagone a rencontré un obstacle dans ses efforts d'IA en 2018 après que des manifestations internes à Google ont conduit la société de technologie à abandonner le projet militaire Maven, qui utilise des algorithmes pour interpréter les images aériennes des zones de conflit. D'autres entreprises ont depuis comblé le vide. Shanahan a déclaré que les nouveaux principes aident à regagner le soutien de l'industrie technologique, où "il y avait une soif d'avoir cette discussion."
"Parfois, je pense que l'angoisse est un peu exagérée, mais nous avons des gens qui ont de sérieuses inquiétudes à propos de travailler avec le ministère de la Défense, " il a dit.
Shanahan a déclaré que les directives aidaient également à garantir l'avantage technologique américain alors que la Chine et la Russie poursuivent l'IA militaire sans prêter attention aux préoccupations éthiques.
La professeure de droit de l'Université de Richmond, Rebecca Crootof, a déclaré que l'adoption de principes est une bonne première étape, mais l'armée devra montrer qu'elle peut évaluer de manière critique les énormes trésors de données utilisés par les systèmes d'IA, ainsi que leurs risques de cybersécurité.
Crootof a déclaré qu'elle espérait également que l'action américaine contribuerait à établir des normes internationales concernant l'utilisation militaire de l'IA.
« Si les États-Unis sont considérés comme prenant au sérieux les normes éthiques de l'IA, par défaut, ils deviennent un sujet plus sérieux, " elle a dit.
© 2020 La Presse Associée. Tous les droits sont réservés. Ce matériel ne peut pas être publié, diffuser, réécrit ou redistribué sans autorisation.