• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les voitures autonomes ne peuvent pas être parfaitement sûres - qu'est-ce qui est assez bon ? 3 questions répondues

    Est-ce que ça va s'arrêter ? Crédit :marat marihal/Shutterstock.com

    Le 19 mars, un véhicule autonome Uber testé en Arizona a heurté et tué Elaine Herzberg, qui promenait son vélo dans la rue. C'est la première fois qu'un véhicule autonome tue un piéton, et cela soulève des questions sur l'éthique du développement et de l'expérimentation des technologies émergentes. Certaines réponses devront attendre la fin de l'enquête complète. Toutefois, Nicolas Evans, professeur de philosophie à l'Université du Massachusetts-Lowell qui étudie l'éthique des processus décisionnels des véhicules autonomes, dit que certaines questions peuvent être répondues maintenant.

    1. Un conducteur humain aurait-il pu éviter cet accident ?

    Probablement. Il est facile de penser que la plupart des gens auraient du mal à voir un piéton traverser une route la nuit. Mais ce qui est déjà clair à propos de cet événement particulier, c'est que la route n'était pas aussi sombre que le chef de la police locale l'avait initialement affirmé.

    Le chef a également déclaré à l'origine que Herzberg était soudainement entré dans la circulation devant la voiture. Cependant, les séquences vidéo inquiétantes et alarmantes publiées par Uber et les autorités locales montrent que ce n'est pas vrai :Herzberg avait déjà traversé une voie de la route à deux voies, et était en train de poursuivre la traversée lorsque l'Uber l'a percutée. (Le conducteur de sécurité n'a pas non plus remarqué le piéton, mais la vidéo suggère que le conducteur regardait vers le bas, pas à travers le pare-brise.)

    Un conducteur humain normal, quelqu'un qui fait activement attention à la route, aurait probablement eu peu de problème à éviter Herzberg:avec les phares allumés lors d'un trajet à 40 mph sur une route réellement sombre, il n'est pas difficile d'éviter les obstacles en ligne droite lorsqu'ils sont à 100 pieds ou plus devant, y compris les personnes ou la faune essayant de passer. Ce crash était évitable.

    Une implication tragique de ce fait est claire :une voiture autonome a tué une personne. Mais il y a aussi une signification publique. Au moins cette voiture Uber s'est déplacée elle-même dans des rues peuplées sans être en mesure d'effectuer la tâche de sécurité cruciale de détecter un piéton, et freiner ou braquer pour ne pas heurter la personne.

    À la suite de la mort de Herzberg, la sécurité et la fiabilité des voitures autonomes d'Uber sont remises en question. Cela vaut également la peine d'examiner l'éthique :tout comme Uber a été critiqué pour avoir exploité ses moteurs à des fins lucratives, l'entreprise peut sans doute exploiter la conduite, public équestre et marchant à ses propres fins de recherche.

    2. Même si ce crash était évitable, Les voitures autonomes sont-elles toujours généralement plus sûres que les voitures à conduite humaine ?

    Pas encore. Le nombre de morts sur les routes américaines est en effet alarmant :environ 32, 000 décès par an. L'estimation fédérale est que 1,18 personnes meurent pour 100 millions de kilomètres de route conduits par des humains. Les voitures d'Uber n'ont parcouru que 3 millions de kilomètres, cependant, avant leur premier décès. Il n'est pas juste de faire une analyse statistique à partir d'un seul point de données, mais ce n'est pas un bon début :les entreprises devraient viser à rendre leurs robots au moins aussi bons que les humains, s'il ne tient pas encore sa promesse d'être nettement meilleur.

    Même si les voitures autonomes d'Uber étaient de meilleurs conducteurs, les chiffres ne disent pas toute l'histoire. Sur les 32, 000 personnes qui meurent sur les routes américaines chaque année, 5, 000 à 6, 000 sont des piétons. Lorsque vous visez des améliorations de la sécurité, l'objectif devrait-il être de réduire le nombre total de décès – ou de mettre un accent particulier sur la protection des victimes les plus vulnérables ? Il est certainement hypothétiquement possible d'imaginer un système de voiture autonome qui réduit de moitié le nombre total de décès sur les routes - à 16, 000 – tout en doublant le taux de mortalité des piétons – à 12, 000. Dans l'ensemble, cela peut sembler bien mieux que les conducteurs humains - mais pas du point de vue des personnes marchant le long des routes du pays !

    Mon groupe de recherche a travaillé à développer des cadres de décision éthique pour les voitures autonomes. Une approche potentielle est appelée « maximin ». Plus fondamentalement, cette façon de penser suggère aux personnes qui conçoivent des véhicules autonomes - à la fois physiquement et en termes de logiciels qui les exécutent - d'identifier les pires résultats possibles de toute décision, même si rare, et s'efforcer de minimiser leurs effets. Quiconque a eu la malchance d'être renversé par une voiture à la fois en tant que piéton et dans un véhicule sait qu'être à pied est bien pire. Sous maximin, les gens devraient concevoir et tester des voitures, entre autres, privilégier la sécurité des piétons.

    Maximin n'est probablement pas la meilleure théorie de la décision morale à utiliser - et n'est certainement pas la seule - à utiliser. Dans certains cas, le pire des résultats pourrait être évité si une voiture ne sortait jamais de son allée ! Mais maximin donne matière à réflexion sur la manière d'intégrer les voitures autonomes dans la vie quotidienne. Même si les voitures autonomes sont toujours évaluées comme plus sûres que les humains, ce qui compte comme "plus sûr" est très important.

    3. Dans quelle mesure les voitures autonomes devraient-elles être meilleures que les humains avant que le public ne les accepte ?

    Même si les gens pouvaient s'entendre sur les façons dont les voitures autonomes devraient être plus sûres que les humains, il n'est pas clair que les gens devraient être d'accord avec les voitures autonomes lorsqu'elles deviennent à peine meilleures que les humains. Si quoi que ce soit, c'est à ce moment-là que les tests dans les rues de la ville devraient commencer.

    Prenons l'exemple d'un nouveau médicament développé par une société pharmaceutique. L'entreprise ne peut pas le commercialiser dès qu'il est prouvé qu'il ne tue pas les gens qui le prennent. Plutôt, le médicament doit subir une série de tests prouvant qu'il est efficace pour traiter le symptôme ou l'affection auquel il est destiné. De plus en plus, les tests de dépistage de drogues cherchent à prouver qu'un médicament est nettement meilleur que ce qui est déjà sur le marché. Les gens devraient s'attendre à la même chose avec les voitures autonomes avant que les entreprises ne mettent le public en danger.

    L'accident en Arizona n'était pas seulement une tragédie. Le fait de ne pas voir un piéton dans des conditions de faible luminosité était une erreur de base évitable pour une voiture autonome. Les véhicules autonomes devraient pouvoir faire bien plus que cela avant d'être autorisés à être conduits, même dans les tests, sur la route ouverte. Tout comme les sociétés pharmaceutiques, Les grandes entreprises technologiques devraient être tenues de tester leurs systèmes de manière approfondie et éthique avant que leurs voitures autonomes ne servent ou ne mettent en danger le public.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com