Lorsqu'un Uber autonome en Arizona n'a pas réussi à ralentir, il a mortellement frappé une femme de 49 ans.
La semaine dernière, le National Transportation Safety Board (NTSB) des États-Unis a publié son rapport préliminaire sur l'accident de conduite autonome d'Uber qui a tué une femme en mars.
Le NTSB a découvert que la voiture avait identifié un objet sur la route quelques secondes avant l'accident, mais le véhicule ne s'est pas arrêté. Le radar et les capteurs Lidar du SUV Volvo XC-90 modifié ont détecté Elaine Herzberg, 49 ans, environ six secondes avant l'accident. Le véhicule a classé Herzberg d'abord comme objet, puis comme véhicule, et enfin comme vélo alors qu'elle traversait la rue à pied.
Environ une seconde avant l'impact, le système de conduite autonome a déterminé qu'un freinage d'urgence était nécessaire pour éviter une collision. Mais, Uber avait désactivé le système de freinage d'urgence automatique de Volvo équipé en usine pour éviter les conflits avec sa propre technologie, dit le rapport.
Les choses ont empiré à partir de là.
Le NTSB a également constaté que le logiciel de conduite autonome d'Uber avait été formé pour ne pas appliquer son propre freinage d'urgence dans des situations risquant de "comporter un véhicule erratique". Cela a été fait pour offrir une conduite confortable :Trop de détections de faux positifs (par exemple, des feuilles d'arbres, arbustes ou sacs en plastique sur la route) entraînerait un grand nombre de freinages d'urgence qu'aucun passager ne tolérera.
Donc, au lieu, l'entreprise s'est appuyée sur le pilote de sauvegarde pour intervenir à la dernière minute afin d'éviter un sinistre. Cela ne s'est pas produit.
Repenser le niveau 3 et l'automatisation conditionnelle
Aujourd'hui, la plupart des tests de conduite autonome nécessitent une intervention humaine. C'est ce que l'on appelle l'automatisation de niveau 3 ou conditionnelle - l'étape du développement de véhicules autonomes qui, à mon avis, est la plus dangereuse car elle implique le transfert du contrôle du véhicule au conducteur de secours en cas d'urgence.
Peu d'entreprises ont déjà choisi de sauter le niveau 3 et de viser le niveau 4 plus sûr (autonomie complète).
En réalité, Je dirais que le niveau 3 devrait être explicitement interdit sur les routes ouvertes. Avoir un pas humain dans la boucle de contrôle à la dernière minute n'est rien de moins qu'un désastre garanti.
Avec les deux systèmes de freinage d'urgence automatisés non disponibles dans le véhicule Uber, l'entreprise comptait sur l'opérateur de secours pour intervenir à tout moment afin d'éviter un crash. Ceci est problématique car le passage du contrôle de la voiture à l'homme pose de nombreuses difficultés, en particulier dans les situations où l'opérateur de sauvegarde a zoné. Des séquences vidéo ont montré l'opérateur regardant vers le bas juste avant l'accident. Elle n'a freiné qu'après la collision. Herzberg a été tué.
Le niveau 3 donne également aux conducteurs un faux sentiment de sécurité. En mars, un conducteur de Tesla a été tué dans un accident en Californie alors que son véhicule fonctionnait en pilote automatique. En mai 2016, un conducteur de Tesla est décédé lorsque sa voiture, également en pilote automatique, a percuté un camion en Floride. Ces véhicules sont conçus pour être conduits par des humains, assisté par des technologies d'auto-conduite, non piloté par des ordinateurs sous surveillance humaine.
Intervention réglementaire – la voie à suivre
Le rapport du NTSB souligne non seulement les lacunes du programme de test d'Uber, mais aussi un échec dans la régulation des essais sur routes ouvertes.
Un rapport publié l'année dernière a montré que l'état de préparation des logiciels de conduite autonome varie selon les différents fournisseurs. Le logiciel de conduite autonome de Waymo était 5, 000 fois plus sûr que celui d'Uber, selon le rapport. Celle-ci a été mesurée en fonction du taux de désengagements, lorsque le système automatisé a forcé le conducteur de secours à prendre le contrôle du véhicule. Le taux d'Uber était de 1 désengagement par mile parcouru, alors que celui de Waymo était de 1 désengagement tous les 5, 128 milles !
L'industrie s'autoréglemente et on ne sait pas comment elle détermine si sa technologie peut être utilisée en toute sécurité sur les routes publiques. Les régulateurs ont également omis de fournir les critères pour prendre de telles décisions.
S'il est nécessaire de tester les performances des logiciels d'auto-conduite dans des conditions réelles, les essais sur routes ouvertes ne devraient pas viser à tester la sécurité des systèmes. Les tests de sécurité doivent être évalués de manière exhaustive avant d'autoriser les véhicules sur la voie publique.
Une ligne de conduite appropriée serait que les régulateurs proposent un ensemble de tests standardisés, et demander aux entreprises de comparer leurs algorithmes sur les mêmes ensembles de données.
Les régulateurs devraient suivre une approche graduelle de la certification. D'abord, le système de conduite autonome est évalué dans des environnements de simulation. Cela donne l'assurance que le système fonctionne en toute sécurité. Ceci est suivi par des tests en conditions réelles dans des environnements confinés (par exemple sur des bancs d'essai). Une fois que les véhicules passent les tests de référence, les régulateurs peuvent les autoriser sur routes ouvertes mais aussi avec des conditions de sécurité.
Cet incident tragique devrait être un catalyseur pour que les régulateurs établissent une culture de sécurité solide et solide pour guider les innovations dans les technologies de conduite autonome. Sans cela, le déploiement de véhicules autonomes n'irait nulle part très vite.