• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Des robots arrogants apprennent les bases de la manipulation d'objets

    Une clé pour compiler le nouvel ensemble de données Omnipush était la construction d'objets modulaires (photo) qui ont permis au système robotique de capturer une grande diversité de comportements de poussée. Les pièces centrales contiennent des marqueurs sur leurs centres et points afin qu'un système de détection de mouvement puisse détecter leur position au millimètre près. Crédit :Massachusetts Institute of Technology

    Les chercheurs du MIT ont compilé un ensemble de données qui capture le comportement détaillé d'un système robotique poussant physiquement des centaines d'objets différents. À l'aide de l'ensemble de données, le plus vaste et le plus diversifié de son genre, les chercheurs peuvent entraîner des robots à « apprendre » les dynamiques de poussée qui sont fondamentales pour de nombreuses tâches complexes de manipulation d'objets, y compris la réorientation et l'inspection d'objets, et des scènes épurées.

    Pour capturer les données, les chercheurs ont conçu un système automatisé composé d'un bras robotique industriel avec un contrôle précis, un système de suivi de mouvement 3D, caméras de profondeur et traditionnelles, et un logiciel qui assemble tout. Le bras pousse autour d'objets modulaires qui peuvent être ajustés en fonction du poids, forme, et la distribution de masse. Pour chaque poussée, le système capture comment ces caractéristiques affectent la poussée du robot.

    Le jeu de données, appelé "Omnipush, " contient 250 poussées différentes de 250 objets, totalisant environ 62, 500 poussées uniques. Il est déjà utilisé par les chercheurs pour, par exemple, construire des modèles qui aident les robots à prédire où les objets atterriront lorsqu'ils seront poussés.

    "Nous avons besoin de beaucoup de données riches pour nous assurer que nos robots peuvent apprendre, " dit Maria Bauza, un étudiant diplômé du Département de génie mécanique (MechE) et premier auteur d'un article décrivant Omnipush qui est présenté à la prochaine conférence internationale sur les robots et systèmes intelligents. "Ici, nous collectons des données à partir d'un vrai système robotique, [et] les objets sont suffisamment variés pour saisir la richesse des phénomènes de poussée. Ceci est important pour aider les robots à comprendre comment fonctionne la poussée, et de traduire ces informations en d'autres objets similaires dans le monde réel."

    Rejoindre Bauza sur le papier sont :Ferran Alet et Yen-Chen Lin, étudiants diplômés du Laboratoire d'informatique et d'intelligence artificielle et du Département de génie électrique et informatique (EECS); Tomas Lozano-Pérez, le professeur d'excellence en enseignement de l'École d'ingénierie ; Leslie P. Kaelbling, le professeur Panasonic d'informatique et d'ingénierie; Philippe Isola, un professeur assistant en EECS; et Alberto Rodriguez, professeur agrégé en MechE.

    Diversifier les données

    Pourquoi se concentrer sur le comportement de poussée ? Modélisation des dynamiques de poussée impliquant des frottements entre objets et surfaces, Rodriguez explique, est essentiel dans les tâches robotiques de niveau supérieur. Considérez le robot visuellement et techniquement impressionnant qui peut jouer Jenga, que Rodriguez a récemment co-conçu. "Le robot exécute une tâche complexe, mais le cœur de la mécanique conduisant cette tâche est toujours celui de pousser un objet affecté par, par exemple, le frottement entre les blocs, " dit Rodriguez.

    Omnipush s'appuie sur un ensemble de données similaire construit dans le laboratoire de manipulation et de mécanismes (MCube) par Rodriguez, Bauza, et d'autres chercheurs qui ont capturé des données de poussée sur seulement 10 objets. Après avoir rendu l'ensemble de données public en 2016, ils ont recueilli les commentaires des chercheurs. Une plainte était le manque de diversité des objets :les robots formés sur l'ensemble de données ont eu du mal à généraliser les informations à de nouveaux objets. Il n'y avait pas non plus de vidéo, ce qui est important pour la vision par ordinateur, prédiction vidéo, et d'autres tâches.

    Pour leur nouvel ensemble de données, les chercheurs s'appuient sur un bras robotique industriel avec un contrôle précis de la vitesse et de la position d'un poussoir, essentiellement une tige d'acier verticale. Comme le bras pousse les objets, un système de suivi de mouvement "Vicon" - qui a été utilisé dans les films, réalité virtuelle, et pour la recherche — suit les objets. Il y a aussi une caméra RVB-D, qui ajoute des informations de profondeur à la vidéo capturée.

    La clé était de construire des objets modulaires. Les pièces centrales uniformes, en aluminium, ressemblent à des étoiles à quatre branches et pèsent environ 100 grammes. Chaque pièce centrale contient des marqueurs sur son centre et des points, ainsi le système Vicon peut détecter sa pose au millimètre près.

    De plus petits morceaux dans quatre formes-concave, triangulaire, rectangulaire, et circulaire - peut être attaché magnétiquement à n'importe quel côté de la pièce centrale. Chaque pièce pèse entre 31 et 94 grammes, mais des poids supplémentaires, allant de 60 à 150 grammes, peut être déposé dans de petits trous dans les pièces. Toutes les pièces des objets de type puzzle s'alignent à la fois horizontalement et verticalement, ce qui aide à émuler le frottement qu'aurait un seul objet avec la même forme et la même distribution de masse. Toutes les combinaisons de différents côtés, poids, et les distributions de masse ont ajouté jusqu'à 250 objets uniques.

    Pour chaque poussée, le bras se déplace automatiquement vers une position aléatoire à plusieurs centimètres de l'objet. Puis, il sélectionne une direction aléatoire et pousse l'objet pendant une seconde. À partir de là où il s'est arrêté, il choisit alors une autre direction aléatoire et répète le processus 250 fois. Chaque poussée enregistre la pose de l'objet et la vidéo RVB-D, qui peut être utilisé à diverses fins de prédiction vidéo. La collecte des données a pris 12 heures par jour, pour deux semaines, totalisant plus de 150 heures. L'intervention humaine n'était nécessaire que lors de la reconfiguration manuelle des objets.

    Les objets n'imitent spécifiquement aucun élément de la vie réelle. Au lieu, ils sont conçus pour capturer la diversité des "cinématiques" et des "asymétries de masse" attendues des objets du monde réel, qui modélisent la physique du mouvement des objets du monde réel. Les robots peuvent alors extrapoler, dire, le modèle physique d'un objet Omnipush avec une distribution de masse inégale à tout objet du monde réel avec des distributions de poids inégales similaires.

    "Imaginez pousser une table à quatre pieds, où la plupart du poids est sur l'une des jambes. Quand tu pousses la table, vous voyez qu'il tourne sur la jambe lourde et qu'il faut le réajuster. Comprenant que la distribution de masse, et son effet sur le résultat d'une poussée, est quelque chose que les robots peuvent apprendre avec cet ensemble d'objets, " dit Rodriguez.

    Alimenter de nouvelles recherches

    Dans une expérience, les chercheurs ont utilisé Omnipush pour entraîner un modèle permettant de prédire la pose finale des objets poussés, donné seulement la pose initiale et la description de la poussée. Ils ont entraîné le modèle sur 150 objets Omnipush, et l'a testé sur une portion d'objets conservée. Les résultats ont montré que le modèle entraîné par Omnipush était deux fois plus précis que les modèles entraînés sur quelques ensembles de données similaires. Dans leur papier, les chercheurs ont également enregistré des repères de précision que d'autres chercheurs peuvent utiliser à des fins de comparaison.

    Parce qu'Omnipush capture la vidéo des poussées, une application potentielle est la prédiction vidéo. Un collaborateur, par exemple, utilise maintenant l'ensemble de données pour entraîner un robot à « imaginer » essentiellement pousser des objets entre deux points. Après une formation sur Omnipush, le robot reçoit en entrée deux trames vidéo, montrant un objet dans sa position de départ et sa position de fin. En utilisant la position de départ, le robot prédit toutes les futures images vidéo qui garantissent que l'objet atteint sa position finale. Puis, il pousse l'objet d'une manière qui correspond à chaque image vidéo prédite, jusqu'à ce qu'il atteigne le cadre avec la position de fin.

    "Le robot demande, "Si je fais cette action, où sera l'objet dans ce cadre ?" Ensuite, il sélectionne l'action qui maximise la probabilité d'obtenir l'objet dans la position qu'il veut, ", dit Bauza. "Il décide comment déplacer les objets en imaginant d'abord comment les pixels de l'image changeront après une poussée."

    "Omnipush inclut des mesures précises du mouvement de l'objet, ainsi que des données visuelles, pour une classe importante d'interactions entre robot et objets dans le monde, " dit Matthew T. Mason, professeur d'informatique et de robotique à l'Université Carnegie Melon. "Les chercheurs en robotique peuvent utiliser ces données pour développer et tester de nouvelles approches d'apprentissage robotique… qui alimenteront les progrès continus de la manipulation robotique."

    Cette histoire est republiée avec l'aimable autorisation de MIT News (web.mit.edu/newsoffice/), un site populaire qui couvre l'actualité de la recherche du MIT, innovation et enseignement.




    © Science https://fr.scienceaq.com