• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un projecteur s'est beaucoup trop amusé avec la technologie automobile

    Arrête ça. Vous pouvez tromper un système Tesla Autopilot avec un projecteur ?

    Vraiment, une image projetée d'un humain est considérée par le système automobile comme une personne réelle ?

    Et êtes-vous en train de dire que le Mobileye 630 PRO considère le panneau routier projeté comme un véritable panneau routier ?

    Ce sont les découvertes d'une équipe de chercheurs qui ont montré les types d'attaques fantômes qui peuvent survenir pour tromper les systèmes d'aide à la conduite.

    L'équipe a rédigé un article et livré une démonstration vidéo sur leurs expériences et leurs découvertes. Le document s'intitule "Phantom of the ADAS:Phantom Attacks on Driver-Assistance Systems".

    Les auteurs sont Ben Nassi, Dudi Nassi, Raz Ben-Netanel, Yisroel Mirsky, Oleg Drokin, et Yuval Elovici. Les affiliations des auteurs incluent l'Université Ben Gourion du Néguev et Georgia Tech. Ils ont utilisé les systèmes Tesla Model X et Mobileye 630 PRO pour les tests. Ils ont également utilisé un certain nombre d'images projetées; ceux-ci comprenaient une figure humaine et un panneau de vitesse de rue.

    Ils voulaient savoir si l'on peut faire croire à un système qu'il s'agit d'une situation du monde réel — confondre le système et prendre un certain niveau de contrôle sur le système. "Les fantômes peuvent également faire freiner soudainement la Tesla Model X (HW 2.5)."

    Une démo vidéo a montré comment la voiture a réduit sa vitesse de 18 mph à 14 mph à la suite d'un fantôme détecté comme une personne.

    Notez qu'ils ont beaucoup utilisé le mot "fantôme" - "Un fantôme est un objet sans profondeur destiné à amener les ADAS et les systèmes de pilotage automatique à percevoir l'objet et à le considérer comme réel. L'objet peut être un obstacle (par exemple, personne, auto, un camion, moto), voie, ou panneau de signalisation, " dit Nassi.

    Mais pourquoi une célèbre marque d'auto-conduite telle que Tesla aurait-elle un système qui verrait les fantômes comme de véritables obstacles ? Nassi en a parlé sur son site dans la section FAQ. "Nous pensons que c'est probablement le résultat d'une politique" mieux vaut prévenir que guérir "qui considère une projection visuelle comme un objet réel même si l'objet n'est pas détecté par d'autres capteurs (par exemple, radars et capteurs à ultrasons).

    De fausses lignes de route faisaient partie de leurs expériences et une instruction a été lue de traverser de l'autre côté de la route, via de fausses lignes et des voies fantômes.

    Alex Kidman, Gizmodo , a écrit sur les expériences mercredi. Le problème avec les systèmes Mobileye et Tesla, il a écrit, était que les chercheurs ont découvert que le modèle de reconnaissance d'images permettait de reconnaître les objets fantômes comme de vrais. En tout, il existe un grand défi de perception lorsque les attaques fantômes vont à l'encontre des systèmes avancés d'aide à la conduite (ADAS) et des pilotes automatiques.

    Une vidéo du 28 janvier a été publiée par Cyber ​​Security Labs à l'Université Ben Gourion.

    L'outil de pilotage automatique de Tesla est généralement considéré comme l'étalon-or actuel dans les véhicules autonomes, mentionné Gizmodo . En effet, les auteurs de l'article considèrent le Mobileye 630 PRO et le Tesla Model X, HW 2.5 en tant que technologies ADAS et de pilote automatique les plus avancées d'aujourd'hui.

    Le niveau de pilote automatique de Tesla permet un nombre limité, Pas plein, Conduite autonome :le véhicule n'a le contrôle total que dans certaines situations et informera le conducteur du moment où il doit prendre le relais.

    Comme Ars Technica Jim Salter a souligné dans son article, "Bien sûr, personne ne devrait laisser une Tesla se conduire sans surveillance en premier lieu, " car Autopilot n'est pas le contrôleur d'une voiture entièrement autonome.

    Salter a souligné ce point pour passer à un autre point important :« Dans ces contraintes, même la pire des réponses démontrée dans la vidéo de Nassi – celle du modèle X faisant une embardée pour suivre de faux marqueurs de voie sur la route – ne semble pas si mauvaise. En réalité, ce clip montre exactement ce qui devrait se passer :le propriétaire du modèle X, préoccupé par ce que diable sa voiture chère pourrait faire, a freiné et a pris le contrôle manuellement après que le pilote automatique soit allé dans une direction dangereuse. »

    L'équipe a déclaré avoir divulgué les résultats à Mobileye et Tesla, les deux systèmes utilisés dans les expériences. "Nous avons tenu Tesla et Mobileye au courant via une série de courriers envoyés du début mai au 19 octobre."

    Le résumé de leur article :

    "... nous étudions un nouveau défi perceptuel qui amène les ADAS et les pilotes automatiques semi/entièrement autonomes à considérer les objets sans profondeur (fantômes) comme réels. Nous montrons comment les attaquants peuvent exploiter ce défi perceptuel... sans avoir besoin d'approcher physiquement le scène d'attaque, en projetant un fantôme via un drone équipé d'un projecteur portable ou en présentant un fantôme sur un panneau d'affichage numérique piraté qui fait face à Internet et se situe à proximité des routes... l'ADAS ou le pilote automatique d'une voiture considère les fantômes comme de vrais objets, faire en sorte que ces systèmes déclenchent les freins, s'engager dans la voie de circulation venant en sens inverse, et émettre des notifications sur les faux panneaux de signalisation."

    Options d'atténuation ? Les auteurs, pour atténuer, présenté « un modèle qui analyse le contexte d'un objet détecté, surface, et la lumière réfléchie, qui est capable de détecter les fantômes avec 0,99 AUC. Finalement, nous expliquons pourquoi le déploiement de systèmes de communication véhiculaires pourrait réduire les opportunités des attaquants d'appliquer des attaques fantômes, mais ne les éliminera pas."

    Salter est revenu à il y a six mois, quand « Ben Nassi, un doctorat étudiant à l'Université Ben Gourion conseillé par le professeur Yuval Elovici, a réussi une série d'attaques d'usurpation d'identité contre un système d'assistance au conducteur Mobileye 630 Pro à l'aide de drones bon marché et de projecteurs alimentés par batterie. Depuis, il a étendu la technique pour expérimenter - également avec succès - en confondant un Tesla Model X. "

    Saleur, en tout, pesé avec son point de vue sur ce que la recherche a enseigné et pourquoi c'était important :« pour la plupart, il nous semble que la Tesla répond assez raisonnablement et bien à ces tentatives délibérées de confondre ses capteurs. Nous pensons que ce genre de travail est important, cependant, car il démontre la nécessité d'une conception défensive des systèmes de conduite semi-autonomes. »

    Les auteurs dans leur article ont écrit, "Nous n'avons rien contre Tesla ou Mobileye, et la raison pour laquelle leurs produits ont été utilisés dans nos expériences est que leurs produits sont les meilleurs et les plus populaires disponibles sur le marché."

    © 2020 Réseau Science X




    © Science https://fr.scienceaq.com