• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les chercheurs en robotique ont le devoir d'empêcher les armes autonomes

    La robotique est rapidement transformée par les progrès de l'intelligence artificielle. Et les avantages sont nombreux :nous voyons des véhicules plus sûrs avec la possibilité de freiner automatiquement en cas d'urgence, des bras robotiques transformant des lignes d'usine autrefois délocalisées et de nouveaux robots capables de tout faire, de faire l'épicerie à la livraison de médicaments sur ordonnance aux personnes qui ont du mal à le faire elles-mêmes.

    Mais notre appétit toujours croissant pour l'intelligent, les machines autonomes posent de nombreux défis éthiques.

    Les progrès rapides ont conduit à des dilemmes éthiques

    Ces idées et bien d'autres ont tourbillonné lorsque mes collègues et moi nous sommes rencontrés début novembre lors de l'une des plus grandes conférences de recherche au monde axées sur la robotique autonome – la conférence internationale IEEE sur les robots et systèmes intelligents. Là, universitaires, chercheurs en entreprise, et des scientifiques du gouvernement ont présenté les développements d'algorithmes qui permettent aux robots de prendre leurs propres décisions.

    Comme pour toute technologie, l'éventail des utilisations futures de nos recherches est difficile à imaginer. C'est encore plus difficile à prévoir étant donné la rapidité avec laquelle ce domaine évolue. Prendre, par exemple, la capacité pour un ordinateur d'identifier des objets dans une image :en 2010, l'état de l'art n'a réussi qu'environ la moitié du temps, et il est resté coincé là pendant des années. Aujourd'hui, bien que, les meilleurs algorithmes, comme indiqué dans les articles publiés, ont maintenant une précision de 86 %. Cette avancée à elle seule permet aux robots autonomes de comprendre ce qu'ils voient à travers les objectifs de la caméra. Il montre également le rythme rapide des progrès au cours de la dernière décennie en raison des développements de l'IA.

    Ce type d'amélioration est un véritable jalon d'un point de vue technique. Alors qu'auparavant, l'examen manuel de trésors de séquences vidéo nécessitait un nombre incroyable d'heures, maintenant, ces données peuvent être analysées rapidement et avec précision par un programme informatique.

    Mais cela soulève aussi un dilemme éthique. En retirant les humains du processus, les hypothèses qui sous-tendent les décisions liées à la confidentialité et à la sécurité ont été fondamentalement modifiées. Par exemple, l'utilisation de caméras dans les rues publiques peut avoir soulevé des problèmes de confidentialité il y a 15 ou 20 ans, mais l'ajout d'une technologie de reconnaissance faciale précise modifie considérablement ces implications en matière de confidentialité.

    Systèmes faciles à modifier

    Lors du développement de machines capables de prendre leurs propres décisions, généralement appelées systèmes autonomes, les questions éthiques qui se posent sont sans doute plus préoccupantes que celles de la reconnaissance d'objets. L'autonomie améliorée par l'IA se développe si rapidement que les capacités qui étaient autrefois limitées à des systèmes hautement sophistiqués sont désormais disponibles pour toute personne possédant une boîte à outils domestique et une certaine expérience informatique.

    Les personnes sans formation en informatique peuvent apprendre certains des outils d'intelligence artificielle les plus avancés, et les robots sont plus que disposés à vous laisser exécuter vos nouvelles techniques d'apprentissage automatique sur eux. Il existe des forums en ligne remplis de personnes désireuses d'aider quiconque à apprendre comment faire cela.

    Avec les outils antérieurs, il était déjà assez facile de programmer votre drone minimalement modifié pour identifier un sac rouge et le suivre. Une technologie de détection d'objets plus récente ouvre la possibilité de suivre une gamme de choses qui ressemblent à plus de 9, 000 types d'objets différents. Combiné avec plus récent, des drones plus maniables, il n'est pas difficile d'imaginer avec quelle facilité ils pourraient être équipés d'armes. Qu'est-ce qui empêche quelqu'un d'attacher un explosif ou une autre arme à un drone équipé de cette technologie ?

    En utilisant diverses techniques, les drones autonomes sont déjà une menace. Ils ont été surpris en train de lâcher des explosifs sur les troupes américaines, fermer des aéroports et être utilisé dans une tentative d'assassinat contre le leader vénézuélien Nicolas Maduro. Les systèmes autonomes en cours de développement pourraient rendre la mise en scène de telles attaques plus facile et plus dévastatrice.

    Les rapports indiquent que l'État islamique utilise des drones standard, dont certains sont utilisés pour des bombardements.

    Commissions de réglementation ou de révision ?

    Il y a à peu près un an, un groupe de chercheurs en intelligence artificielle et en robotique autonome s'est engagé à s'abstenir de développer des armes autonomes mortelles. Ils ont défini les armes autonomes létales comme des plates-formes capables de "sélectionner et d'engager des cibles sans intervention humaine". En tant que chercheur en robotique qui n'est pas intéressé par le développement de techniques de ciblage autonomes, J'ai senti que le serment manquait le nœud du danger. Il a passé sous silence des questions éthiques importantes qui doivent être abordées, en particulier ceux à la large intersection des applications de drones qui pourraient être bénignes ou violentes.

    Pour un, les chercheurs, les entreprises et les développeurs qui ont écrit les articles et construit le logiciel et les appareils ne le font généralement pas pour créer des armes. Cependant, ils pourraient par inadvertance permettre à d'autres, avec un minimum d'expertise, pour créer de telles armes.

    Que pouvons-nous faire pour faire face à ce risque?

    La réglementation est une option, et un déjà utilisé en interdisant les drones aériens à proximité des aéroports ou autour des parcs nationaux. Ceux-ci sont utiles, mais ils n'empêchent pas la création de drones armés. Les règlements sur les armes traditionnelles ne sont pas un modèle suffisant, Soit. Ils renforcent généralement les contrôles sur la matière première ou le processus de fabrication. Ce serait presque impossible avec des systèmes autonomes, où les matériaux sources sont un code informatique largement partagé et le processus de fabrication peut avoir lieu à la maison en utilisant des composants standard.

    Une autre option serait de suivre les traces des biologistes. En 1975, ils ont tenu une conférence sur les dangers potentiels de l'ADN recombinant à Asilomar en Californie. Là, les experts se sont mis d'accord sur des lignes directrices volontaires qui orienteraient le cours des travaux futurs. Pour les systèmes autonomes, un tel résultat semble peu probable à ce stade. De nombreux projets de recherche qui pourraient être utilisés dans le développement d'armes ont également des résultats pacifiques et incroyablement utiles.

    Un troisième choix serait d'établir des organes d'autonomie au niveau de l'organisation, tels que les comités d'examen institutionnels qui supervisent actuellement les études sur des sujets humains dans les entreprises, les universités et les laboratoires gouvernementaux. Ces conseils examinent les avantages pour les populations impliquées dans la recherche et élaborent des moyens d'atténuer les dommages potentiels. Mais ils ne peuvent réglementer que la recherche effectuée au sein de leurs institutions, ce qui limite leur portée.

    Toujours, un grand nombre de chercheurs relèveraient de la compétence de ces conseils - au sein de la communauté de recherche en robotique autonome, presque tous les présentateurs aux conférences techniques sont membres d'une institution. Les comités d'examen de la recherche constitueraient un premier pas vers l'autoréglementation et pourraient signaler les projets qui pourraient être transformés en armes.

    Vivre avec le péril et la promesse

    Beaucoup de mes collègues et moi sommes ravis de développer la prochaine génération de systèmes autonomes. Je pense que le potentiel pour le bien est trop prometteur pour être ignoré. Mais je suis aussi préoccupé par les risques que posent les nouvelles technologies, surtout s'ils sont exploités par des personnes malveillantes. Pourtant, avec une organisation minutieuse et des conversations éclairées aujourd'hui, Je crois que nous pouvons travailler à la réalisation de ces avantages tout en limitant le potentiel de préjudice.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com