En ce 23 mars, 2018, photo d'archive fournie par KTVU, le personnel d'urgence travaille sur les lieux où un SUV électrique Tesla s'est écrasé contre une barrière sur l'autoroute américaine 101 à Mountain View, Californie L'ingénieur Apple décédé lorsque sa Tesla Model X s'est écrasée contre la barrière en béton s'est plaint avant sa mort que le système de pilote automatique du SUV fonctionnerait mal dans la zone où l'accident s'est produit. Les plaintes ont été détaillées dans une mine de documents publiés mardi, 11 février 2020, par le National Transportation Safety Board des États-Unis, qui enquête sur la marche, Accident de 2018 qui a tué l'ingénieur Walter Huang. (KTVU-TV via AP, Déposer)
Le système de conduite partiellement automatisé de Tesla a dirigé un SUV électrique dans une barrière en béton sur une autoroute de la Silicon Valley parce qu'il fonctionnait dans des conditions qu'il ne pouvait pas gérer et parce que le conducteur était probablement distrait en jouant à un jeu sur son smartphone, le National Transportation Safety Board a trouvé.
Le conseil d'administration a pris la décision mardi dans l'accident mortel, et a fourni neuf nouvelles recommandations pour prévenir les accidents de véhicules partiellement automatisés à l'avenir. Parmi les recommandations, il est recommandé aux entreprises technologiques de concevoir des smartphones et autres appareils électroniques afin qu'ils ne fonctionnent pas s'ils sont à la portée d'un conducteur, sauf s'il s'agit d'une urgence.
Le président Robert Sumwalt a déclaré que le problème des conducteurs distraits par les smartphones continuera de se propager si rien n'est fait.
"Si on ne s'en sort pas, ça va être un coronavirus, ", a-t-il déclaré en appelant à des réglementations gouvernementales et à des politiques d'entreprise interdisant l'utilisation de smartphones par les conducteurs.
Une grande partie de la frustration du conseil d'administration était dirigée vers la National Highway Traffic Safety Administration et vers Tesla, qui n'ont pas donné suite aux recommandations adoptées par le NTSB il y a deux ans. Le NTSB enquête sur les accidents mais n'a que le pouvoir de faire des recommandations. La NHTSA peut appliquer les conseils, et les fabricants peuvent également agir en conséquence.
Mais Sumwalt a dit que s'ils ne le faisaient pas, "alors nous perdons notre temps. La sécurité ne sera pas améliorée. Nous comptons sur eux pour faire leur travail."
Pour Tesla, le conseil d'administration a répété les recommandations précédentes selon lesquelles il installait des protections pour empêcher son système de conduite de pilote automatique de fonctionner dans des conditions pour lesquelles il n'était pas conçu pour naviguer. Le conseil d'administration souhaite également que Tesla conçoive un système plus efficace pour s'assurer que le conducteur est toujours attentif.
Si Tesla n'ajoute pas de protections de surveillance du conducteur, une mauvaise utilisation du pilote automatique est attendue "et le risque de futurs accidents restera, " a écrit le conseil d'administration dans l'une de ses conclusions.
L'audience de mardi a porté sur le crash en mars 2018 d'un SUV Tesla Model X, dans lequel le pilote automatique a été activé lorsque le véhicule a fait une embardée et a percuté une barrière en béton séparant l'autoroute et les voies de sortie à Mountain View, Californie, tuant l'ingénieur Apple Walter Huang.
Juste avant le crash, la Tesla a viré à gauche dans une zone pavée entre les voies de circulation de l'autoroute et une bretelle de sortie, a déclaré le NTSB. Il a accéléré à 71 mph et s'est écrasé dans l'extrémité de la barrière en béton. Le système anticollision avant de la voiture n'a pas alerté Huang, et son freinage d'urgence automatique ne s'est pas activé, a déclaré le NTSB.
Aussi, Huang n'a pas freiné, et aucun mouvement de direction n'a été détecté pour éviter l'accident, a déclaré le personnel du conseil.
Les membres du personnel du NTSB ont déclaré qu'ils ne pouvaient pas déterminer exactement pourquoi la voiture s'était dirigée vers la barrière, mais c'était probablement une combinaison de lignes de voie fanées, un soleil radieux qui a affecté les caméras, et un véhicule plus proche que la normale dans la voie devant la Tesla.
Le conseil a également constaté que Huang aurait probablement survécu si un coussin au bout de la barrière avait été réparé par les responsables des transports de Californie. Ce coussin avait été endommagé dans un accident 11 jours avant que Huang ne soit tué.
Les recommandations à la NHTSA comprenaient des tests étendus pour s'assurer que les systèmes partiellement automatisés peuvent éviter de se heurter à des obstacles courants tels qu'une barrière. Le conseil d'administration demande également à la NHTSA d'évaluer le pilote automatique pour déterminer où il peut fonctionner en toute sécurité et de développer et d'appliquer des normes de surveillance des conducteurs afin qu'ils fassent attention lorsqu'ils utilisent les systèmes.
La NHTSA a déclaré au NTSB qu'elle avait ouvert des enquêtes sur 14 accidents de Tesla et qu'elle utiliserait son application des défauts de sécurité pour prendre des mesures si nécessaire.
L'agence a publié une déclaration disant qu'elle examinerait le rapport du NTSB et que tous les véhicules disponibles dans le commerce exigent que les conducteurs humains gardent le contrôle à tout moment.
« Les accidents liés à la distraction sont une préoccupation majeure, y compris ceux impliquant des fonctions avancées d'assistance à la conduite, ", indique le communiqué.
Sumwalt a déclaré au début de l'audience de mardi que des systèmes comme le pilote automatique ne peuvent pas se conduire eux-mêmes, pourtant, les conducteurs continuent à les utiliser sans y prêter attention.
« Cela signifie que lorsque vous conduisez en mode « auto-conduite », vous ne pouvez pas lire un livre, vous ne pouvez pas regarder un film ou une émission de télévision, vous ne pouvez pas envoyer de SMS et vous ne pouvez pas jouer à des jeux vidéo, " il a dit.
Interrogé par les membres du conseil d'administration, Robert Molloy, le directeur de la sécurité routière du NTSB, a déclaré que la NHTSA adopte une approche non interventionniste pour réglementer les nouveaux systèmes de conduite automatisés comme le pilote automatique. Molloy a qualifié l'approche de "malavisée, " et dit que rien n'est plus décevant que de voir des recommandations ignorées par Tesla et la NHTSA.
"Ils doivent faire plus, ", a-t-il déclaré à propos de l'agence fédérale de la sécurité routière.
Le pilote automatique est conçu pour maintenir un véhicule dans sa voie et maintenir une distance de sécurité avec les véhicules qui le précèdent. Il peut également changer de voie avec l'approbation du conducteur. Tesla dit que le pilote automatique est destiné à être utilisé pour l'assistance au conducteur et que les conducteurs doivent être prêts à intervenir à tout moment.
Sumwalt a déclaré que le conseil d'administration avait fait des recommandations à six constructeurs automobiles en 2017 pour mettre fin au problème et que seul Tesla n'avait pas répondu.
Teslas peut sentir un conducteur appliquer une force sur le volant, et si cela n'arrive pas, il émettra des avertissements visuels et sonores. Mais surveiller le couple au volant, « est une mauvaise mesure de substitution » de la surveillance du conducteur, Ensar Becic, a déclaré au conseil d'administration l'expert de la performance humaine et de l'automatisation de la sécurité routière du NTSB.
Des messages ont été laissés mardi sollicitant les commentaires de Tesla.
Sumwalt a déclaré que le NTSB avait appelé à une technologie il y a plus de neuf ans pour désactiver les fonctions de distraction des smartphones pendant que l'utilisateur conduit, mais aucune mesure n'a été prise.
Don Karol, le chef de projet du NTSB pour la sécurité routière, a déclaré au conseil d'administration que le personnel recommandait aux entreprises de téléphonie cellulaire de programmer les téléphones pour verrouiller automatiquement les fonctions gênantes telles que les jeux et les appels téléphoniques pendant que quelqu'un conduit. Le personnel recommande également aux entreprises d'adopter des politiques pour empêcher l'utilisation des téléphones portables émis par l'entreprise pendant que les travailleurs conduisent.
Tesla a déclaré qu'Autopilot avait été initialement publié en "bêta, " ce qui signifie qu'il était testé et amélioré au fur et à mesure que des bogues étaient identifiés, Karol a dit au conseil d'administration.
Cela a amené une réponse du vice-président Bruce Landsburg, qui a dit si le système a connu des bugs, "Il est probablement assez prévisible que quelqu'un va avoir un problème avec ça. Et puis ils (Tesla) reviennent et disent" oh, nous vous avons prévenu.'"
© 2020 La Presse Associée. Tous les droits sont réservés. Ce matériel ne peut pas être publié, diffuser, réécrit ou redistribué sans autorisation.