• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Question et réponse avec un expert juridique :lorsqu'une Tesla en pilote automatique tue quelqu'un, qui est responsable ?

    Crédit :domaine public Unsplash/CC0

    Fin 2019, la voiture de Kevin George Aziz Riad a quitté à toute vitesse une autoroute californienne, a brûlé un feu rouge et s'est écrasée dans une autre voiture, tuant les deux personnes à l'intérieur. La voiture de Riad, une Tesla Model S, était en pilote automatique.

    Plus tôt cette année, les procureurs du comté de Los Angeles ont déposé deux accusations d'homicide involontaire par véhicule contre Riad, aujourd'hui âgé de 27 ans, et l'affaire marque la première poursuite pour crime aux États-Unis d'un accident de voiture mortel impliquant un système d'assistance à la conduite. Il s'agit également de la première poursuite pénale d'un accident impliquant la fonction de pilote automatique de Tesla, qui équipe plus de 750 000 voitures aux États-Unis. Pendant ce temps, la famille des victimes de l'accident intente des poursuites civiles contre Riad et Tesla.

    Tesla prend soin de faire la distinction entre sa fonction de pilote automatique et une voiture sans conducteur, comparant son système d'assistance à la conduite à la technologie que les pilotes d'avion utilisent lorsque les conditions sont claires. "Tesla Autopilot soulage les conducteurs des aspects les plus fastidieux et potentiellement dangereux des déplacements sur route", déclare Tesla en ligne. "Nous construisons le pilote automatique pour vous donner plus de confiance au volant, augmenter votre sécurité sur la route et rendre la conduite sur autoroute plus agréable... Le conducteur est toujours responsable et, en fin de compte, contrôle la voiture."

    Le constructeur de véhicules électriques place clairement la responsabilité de la sécurité sur le conducteur, mais les recherches suggèrent que les humains sont sensibles au biais d'automatisation, une dépendance excessive aux aides automatisées et aux systèmes d'aide à la décision. C'est maintenant aux tribunaux de décider qui est coupable lorsque l'utilisation de ces systèmes entraîne des erreurs fatales.

    Actuellement, Riad est en liberté sous caution et plaide non coupable d'accusations d'homicide involontaire. NYU News s'est entretenu avec Mark Geistfeld - NYU Law Sheila Lubetsky Birnbaum Professeur de litige civil et auteur de l'article de la California Law Review "A Roadmap for Autonomous Vehicles:State Tort Liability, Automobile Insurance, and Federal Safety Regulation" - sur l'importance de ces les accusations criminelles et ce qu'elles pourraient signifier pour l'avenir de la confiance des consommateurs dans les nouvelles technologies.

    Pouvez-vous faire la lumière sur le précédent judiciaire créé par les poursuites pénales contre Kevin George Aziz Riad ? Quel message envoie-t-il aux consommateurs et aux fabricants de technologies similaires ?

    Premièrement, les accusations criminelles sont surprenantes, d'après ce que nous savons - les documents d'accusation criminelle, comme d'habitude, ne fournissent aucun détail. En règle générale, si vous ne faisiez pas attention, que vous brûliez un feu rouge et que vous frappiez quelqu'un - aussi tragique soit-il - vous n'obtiendriez pas d'accusation criminelle pour ce comportement dans la grande majorité des cas. Vous ne voyez vraiment pas beaucoup de poursuites pénales pour des accidents de véhicules à moteur en dehors des cas de conduite en état d'ébriété.

    Si le conducteur était reconnu coupable d'homicide involontaire, cette affaire pourrait vraiment être le précédent le plus perturbateur, le plus nouveau, le plus révolutionnaire. C'est une rupture avec le passé, si en fait la poursuite pénale est simplement basée sur le fait qu'il s'appuie sur le pilote automatique alors qu'il aurait dû prendre le relais. Si c'est ce qui se passe, vous pourriez voir beaucoup plus de poursuites pénales aller de l'avant que nous n'en avons aujourd'hui.

    La responsabilité délictuelle ou les poursuites civiles, en revanche, sont très courantes. C'est alors que le défendeur paierait des dommages-intérêts pour les blessures causées. La majorité des poursuites en responsabilité délictuelle devant les tribunaux d'État à travers le pays concernent des accidents de véhicules à moteur dans lesquels un conducteur est accusé d'avoir causé l'accident par négligence, ce qui s'est clairement produit dans ce cas parce que le conducteur a grillé un feu rouge.

    Si cette affaire signale d'une manière ou d'une autre que la responsabilité pénale est plus possible simplement en s'appuyant sur la technologie, cela pourrait entraîner un changement profond dans la nature des responsabilités légales à l'avenir.

    Quelle est l'obligation d'une entreprise de technologie de pointe telle que Tesla d'informer les conducteurs, que ce soit directement ou par le biais de messages publicitaires et marketing, qu'ils sont responsables de tous les dommages, que la voiture soit ou non en pilote automatique ?

    Il est clair qu'ils ont l'obligation d'avertir la personne assise au siège du conducteur de prendre en main le véhicule, qu'il n'est pas capable de tout faire tout seul. Vous voyez cet avertissement dans les véhicules Tesla, et presque tous les véhicules ont ce type d'avertissement. Par exemple, lorsque vous utilisez une fonction de carte en conduisant, de nombreuses voitures proposent un avertissement :"Cela va vous distraire, faites attention à la route".

    Les constructeurs ont également l'obligation de garder à l'esprit le sentiment de complaisance qui accompagne la technologie de conduite lors de la conception de la voiture. Tesla ou tout autre fabricant ne peut pas simplement dire :"Hé, faites attention, c'est votre responsabilité". Ils doivent en fait essayer de mettre quelque chose dans la conception pour s'assurer que les conducteurs restent attentifs. Ainsi, différents constructeurs adoptent des approches différentes pour résoudre ce problème :certaines voitures s'arrêteront si vos mains ne sont pas sur le volant, et d'autres voitures ont des caméras qui émettront des bips si vous ne faites pas attention.

    Selon la loi actuelle, si le conducteur a un accident et qu'il y a eu un avertissement adéquat, et que la conception elle-même est suffisamment adéquate pour garder le conducteur attentif, le constructeur automobile ne sera pas responsable. Mais il y a une exception possible ici :il y a une formulation de la règle de responsabilité qui est assez largement adoptée à travers le pays, y compris en Californie, où cette affaire aura lieu. En vertu de cette règle, l'enquête est basée sur ce que les consommateurs attendent du fabricant. Et les attentes des consommateurs peuvent être fortement influencées par le marketing et la publicité, etc.

    Par exemple, si Tesla devait annoncer que le pilote automatique ne tombe jamais dans un accident, et qu'ensuite un consommateur tombe dans un accident, Tesla serait responsable d'avoir frustré ces attentes.

    Dans ce cas, le conducteur a été accusé sur la base de l'idée qu'il était trop dépendant du pilote automatique de sa voiture. Qu'est-ce que cela dit sur nos hypothèses de base quant à savoir si les humains ou la technologie sont plus dignes de confiance ?

    Il y a une distinction importante entre la dépendance excessive et la complaisance. Je pense que la complaisance n'est qu'une réaction humaine naturelle au manque de stimulus - dans ce cas, le manque de responsabilité pour l'exécution de toutes les tâches de conduite. Vous pouvez vous ennuyer et vous laisser aller à un sentiment de complaisance, mais je ne pense pas que ce comportement soit trop dépendant de la technologie.

    L'idée de dépendance excessive entre en jeu avec la nature potentielle de l'acte répréhensible ici. Peut-être que le conducteur dans ce cas se défendra en disant qu'il pensait raisonnablement que la voiture avait tout sous contrôle, était tout à fait capable de résoudre ce problème, et qu'il n'avait donc pas à se soucier de réagir si les choses tournaient autrement. À ce moment-là, il placerait sa confiance dans la technologie plutôt que dans sa propre capacité à arrêter le véhicule et à résoudre le problème de manière sûre. S'il y a une confiance aveugle dans la technologie plutôt que de prendre le relais alors que vous auriez pu le faire, et si vous êtes responsable en conséquence, cela devient un message très profond et intéressant que la loi envoie.

    Pensez-vous que ce changement de responsabilité nuira aux affaires d'entreprises comme Tesla ?

    Le gros problème auquel les constructeurs de véhicules autonomes comme Tesla sont actuellement confrontés est de gagner la confiance des consommateurs lorsqu'ils introduisent une nouvelle technologie sur le marché. Le besoin de confiance dans les premiers stades de ces produits est extrêmement important. Et tous les fabricants s'inquiètent de ce problème car ils savent que s'il y a des accidents horribles, les consommateurs vont perdre confiance dans le produit. En fin de compte, la technologie finira par prendre le dessus; c'est juste une question de savoir si c'est plus tôt que tard. Et le temps, c'est de l'argent dans ce contexte - donc si vous obtenez une adoption plus lente parce que les consommateurs sont très préoccupés par les performances de sécurité de la technologie, cela nuira à l'industrie. Ils veulent évidemment éviter ce résultat. Cette technologie va encore prendre le dessus, c'est juste une question de temps qu'il faudra pour que cela se produise. Il y a tellement d'avantages à utiliser des véhicules autonomes, y compris dans la dimension de la sécurité.

    À propos de son pilote automatique et de sa capacité de conduite entièrement autonome, Tesla déclare :"Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, les fonctionnalités actuellement activées ne rendent pas le véhicule autonome." Quels problèmes de responsabilité prévoyez-vous si/quand ces véhicules deviennent autonomes ?

    C'est une question compliquée, et c'est la question qui intéresse tout le monde. Une fois que ces véhicules deviennent totalement autonomes, il n'y a plus que la voiture. L'humain dans la voiture n'est même pas un élément de la situation. La grande question est donc :une fois que ces véhicules se sont écrasés, qui paie ? On pourrait penser que le fabricant serait responsable — et cela va augmenter le coût de ces véhicules et les rendre beaucoup plus difficiles à distribuer. Il y a beaucoup de gens qui pensent qu'en cas d'accident, le fabricant devrait être responsable à tout moment. Je suis fortement sceptique quant à cette conclusion, car je pense que c'est beaucoup plus proche que la plupart des gens ne le prétendent.

    En fin de compte, ces problèmes dépendent de la façon dont les régulateurs fédéraux comme la National Highway Traffic Safety Administration réglementent le véhicule. Ils devront établir une norme de performance en matière de sécurité que le fabricant doit satisfaire avant de pouvoir commercialiser le produit de manière totalement autonome. La question est de savoir où les régulateurs fixent cette norme, et je ne pense pas qu'il soit facile de bien faire les choses. À ce moment-là, il y aura un bon débat à avoir :ont-ils bien compris ou non ? Nous sommes encore à quelques années d'écart. Je pense que nous aurons tous ces conversations en 2025. + Explorer plus loin

    La sonde du crash de Tesla indique une "dépendance excessive" du pilote automatique




    © Science https://fr.scienceaq.com