• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Apporter un raisonnement humain à la navigation automobile sans conducteur

    Apporter un raisonnement plus humain à la navigation des véhicules autonomes, Les chercheurs du MIT ont créé un système qui permet aux voitures sans conducteur de consulter une simple carte et d'utiliser des données visuelles pour suivre des itinéraires dans de nouvelles, environnements complexes. Crédit :Chelsea Turner

    Dans le but d'apporter un raisonnement plus humain aux véhicules autonomes, Les chercheurs du MIT ont créé un système qui utilise uniquement des cartes simples et des données visuelles pour permettre aux voitures sans conducteur de parcourir des itinéraires dans de nouveaux, environnements complexes.

    Les conducteurs humains sont exceptionnellement doués pour naviguer sur des routes qu'ils n'ont jamais empruntées auparavant, à l'aide d'observations et d'outils simples. Nous faisons simplement correspondre ce que nous voyons autour de nous à ce que nous voyons sur nos appareils GPS pour déterminer où nous sommes et où nous devons aller. Voitures sans conducteur, cependant, lutter avec ce raisonnement de base. Dans chaque nouveau domaine, les voitures doivent d'abord cartographier et analyser toutes les nouvelles routes, ce qui prend beaucoup de temps. Les systèmes s'appuient également sur des cartes complexes, généralement générées par des scans 3D, dont la génération et le traitement à la volée nécessitent des calculs intensifs.

    Dans un article présenté à la conférence internationale de cette semaine sur la robotique et l'automatisation, Les chercheurs du MIT décrivent un système de contrôle autonome qui "apprend" les schémas de direction des conducteurs humains lorsqu'ils naviguent sur des routes dans une petite zone, en utilisant uniquement les données des flux de caméras vidéo et une simple carte de type GPS. Puis, le système entraîné peut contrôler une voiture sans conducteur le long d'un itinéraire planifié dans une toute nouvelle zone, en imitant le conducteur humain.

    À l'instar des conducteurs humains, le système détecte également toute discordance entre sa carte et les caractéristiques de la route. Cela aide le système à déterminer si sa position, capteurs, ou la cartographie est incorrecte, afin de corriger la trajectoire de la voiture.

    Pour former le système dans un premier temps, un opérateur humain contrôlait une Toyota Prius sans conducteur, équipée de plusieurs caméras et d'un système de navigation GPS de base, collectant des données sur les rues de banlieue locales, y compris diverses structures et obstacles routiers. Lorsqu'il est déployé de manière autonome, le système a conduit avec succès la voiture le long d'un chemin préplanifié dans une zone boisée différente, désigné pour les essais de véhicules autonomes.

    "Avec notre système, vous n'avez pas besoin de vous entraîner sur chaque route au préalable, " dit le premier auteur Alexander Amini, un étudiant diplômé du MIT. "Vous pouvez télécharger une nouvelle carte pour que la voiture puisse naviguer sur des routes qu'elle n'a jamais vues auparavant."

    "Notre objectif est de parvenir à une navigation autonome robuste pour la conduite dans de nouveaux environnements, " ajoute la co-auteur Daniela Rus, directeur du Laboratoire d'informatique et d'intelligence artificielle (CSAIL) et professeur Andrew et Erna Viterbi de génie électrique et d'informatique. "Par exemple, si on entraîne un véhicule autonome à conduire en milieu urbain comme les rues de Cambridge, le système doit également être capable de conduire en douceur dans les bois, même si c'est un environnement qu'il n'a jamais vu auparavant."

    Rejoindre Rus et Amini sur le papier sont Guy Rosman, chercheur au Toyota Research Institute, et Sertac Karaman, professeur agrégé d'aéronautique et d'astronautique au MIT.

    Navigation point à point

    Les systèmes de navigation traditionnels traitent les données des capteurs via plusieurs modules personnalisés pour des tâches telles que la localisation, cartographie, détection d'objets, planification de mouvement, et la commande de direction. Pendant des années, Le groupe Rus a développé des systèmes de navigation "de bout en bout", qui traitent les données sensorielles entrées et les commandes de direction de sortie, sans avoir besoin de modules spécialisés.

    Jusqu'à maintenant, cependant, ces modèles ont été strictement conçus pour suivre la route en toute sécurité, sans réelle destination en tête. Dans le nouveau journal, les chercheurs ont perfectionné leur système de bout en bout pour conduire d'un objectif à une destination, dans un environnement inédit. Faire cela, les chercheurs ont entraîné leur système à prédire une distribution de probabilité complète sur toutes les commandes de direction possibles à un instant donné pendant la conduite.

    Le système utilise un modèle d'apprentissage automatique appelé réseau de neurones convolutifs (CNN), couramment utilisé pour la reconnaissance d'images. Pendant la formation, le système surveille et apprend à piloter à partir d'un conducteur humain. Le CNN établit une corrélation entre les rotations du volant et les courbures de la route qu'il observe à l'aide de caméras et d'une carte saisie. Finalement, il apprend la commande de direction la plus probable pour diverses situations de conduite, comme les routes droites, intersections à quatre voies ou en T, fourchettes, et rotatives.

    "Initialement, à une intersection en forme de T, il y a beaucoup de directions différentes dans lesquelles la voiture peut tourner, " dit Rus. " Le modèle commence par réfléchir à toutes ces directions, mais comme il voit de plus en plus de données sur ce que font les gens, il verra que certaines personnes tournent à gauche et d'autres à droite, mais personne ne va droit. Tout droit est exclu comme direction possible, et le modèle apprend que, aux intersections en T, il ne peut se déplacer qu'à gauche ou à droite."

    Que dit la carte ?

    En test, les chercheurs introduisent dans le système une carte avec un itinéraire choisi au hasard. En conduisant, le système extrait des caractéristiques visuelles de la caméra, ce qui lui permet de prévoir les structures routières. Par exemple, il identifie un panneau d'arrêt éloigné ou des sauts de ligne sur le côté de la route comme des signes d'une prochaine intersection. A chaque instant, il utilise sa distribution de probabilité prédite des commandes de direction pour choisir celle qui est la plus susceptible de suivre son itinéraire.

    Surtout, disent les chercheurs, le système utilise des cartes faciles à stocker et à traiter. Les systèmes de contrôle autonomes utilisent généralement des scans LIDAR pour créer des des cartes complexes qui prennent environ 4, 000 gigaoctets (4 téraoctets) de données pour ne stocker que la ville de San Francisco. Pour chaque nouvelle destination, la voiture doit créer de nouvelles cartes, ce qui représente des tonnes de traitement de données. Cartes utilisées par le système des chercheurs, cependant, capture le monde entier en utilisant seulement 40 gigaoctets de données.

    En conduite autonome, le système fait également correspondre en permanence ses données visuelles aux données cartographiques et note toute incohérence. Cela aide le véhicule autonome à mieux déterminer où il se trouve sur la route. Et cela garantit que la voiture reste sur le chemin le plus sûr si elle reçoit des informations d'entrée contradictoires :si, dire, la voiture roule sur une route droite sans virages, et le GPS indique que la voiture doit tourner à droite, la voiture saura continuer à rouler tout droit ou s'arrêter.

    "Dans le monde réel, les capteurs tombent en panne, " dit Amini. " Nous voulons nous assurer que le système est robuste aux différentes pannes de différents capteurs en construisant un système qui peut accepter ces entrées bruyantes et toujours naviguer et se localiser correctement sur la route. "


    © Science https://fr.scienceaq.com