Une douzaine d'employés de Google quitteraient l'entreprise en raison de sa collaboration avec l'armée américaine sur les drones
Une pétition interne appelant à ce que Google reste en dehors de "l'affaire de la guerre" gagnait du soutien mardi, certains travailleurs auraient démissionné pour protester contre une collaboration avec l'armée américaine.
Environ 4, 000 employés de Google auraient signé une pétition qui a commencé à circuler il y a environ trois mois, exhortant le géant de l'Internet à s'abstenir d'utiliser l'intelligence artificielle pour permettre aux drones militaires américains de mieux reconnaître ce qu'ils surveillent.
Le site d'actualités techniques Gizmodo a rapporté cette semaine qu'une douzaine d'employés de Google démissionnent dans un stand éthique.
La société californienne n'a pas immédiatement répondu aux demandes de renseignements sur ce qu'on appelait le projet Maven, qui aurait utilisé des talents d'apprentissage automatique et d'ingénierie pour distinguer les personnes et les objets dans les vidéos de drones pour le ministère de la Défense.
"Nous pensons que Google ne devrait pas être dans le business de la guerre, ", lit-on dans la pétition, selon les copies mises en ligne.
"Par conséquent, nous demandons que le projet Maven soit annulé, et ce brouillon de Google, faire connaître et appliquer une politique claire stipulant que ni Google ni ses sous-traitants ne construiront jamais de technologie de guerre."
Éloignez-vous des drones tueurs
L'Electronic Frontier Foundation, un groupe de droits Internet, et le Comité international pour le contrôle des armements robotiques (ICRAC) faisaient partie de ceux qui ont apporté leur soutien.
Alors que les rapports indiquaient que les résultats de l'intelligence artificielle seraient examinés par des analystes humains, la technologie pourrait ouvrir la voie à des systèmes de ciblage automatisés sur des drones armés, L'ICRAC a motivé dans une lettre ouverte de soutien aux employés de Google contre le projet.
« Alors que les commandants militaires considèrent les algorithmes de reconnaissance d'objets comme fiables, il sera tentant d'atténuer voire de supprimer l'examen et la surveillance humains de ces systèmes, " L'ICRAC a déclaré dans la lettre.
"Nous sommes alors à deux pas d'autoriser les drones autonomes à tuer automatiquement, sans supervision humaine ni contrôle humain significatif.
Google a déclaré publiquement que son travail pour améliorer la capacité des machines à reconnaître les objets n'était pas destiné à des utilisations offensantes, mais les documents publiés montrent une image "plus trouble", Cindy Cohn et Peter Eckersley de l'EFF ont déclaré dans un article en ligne le mois dernier.
« Si notre lecture du dossier public est correcte, les systèmes que Google prend en charge ou construit signaleraient les personnes ou les objets vus par des drones pour examen humain, et dans certains cas, cela conduirait à des frappes ultérieures de missiles sur ces personnes ou objets, " ont déclaré Cohn et Eckersley.
"Ce sont de gros enjeux éthiques, même avec des humains dans la boucle plus loin le long de la « chaîne de destruction ». »
L'EFF et d'autres ont salué le débat interne de Google, soulignant la nécessité de cadres moraux et éthiques concernant l'utilisation de l'intelligence artificielle dans l'armement.
"L'utilisation de l'IA dans les systèmes d'armes est un sujet d'une importance cruciale et qui mérite un débat public international et probablement des accords internationaux pour assurer la sécurité mondiale, ", ont déclaré Cohn et Eckersley.
"Des entreprises comme Google, ainsi que leurs homologues du monde entier, doivent considérer les conséquences et exiger une véritable responsabilité et des normes de comportement de la part des agences militaires qui recherchent leur expertise, et d'elles-mêmes. »
© 2018 AFP