Petit boulot, l'un des deux robots du laboratoire du professeur agrégé du CSE, Chad Jenkin, attrape un objet. Odd Job et son sosie, Biscuit, sont actuellement capables de saisir des objets en fonction de la profondeur et de la perception des couleurs. Crédit :Joseph Xu, Ingénierie du Michigan
Dans une démarche vers des robots d'aide à domicile capables de naviguer rapidement dans des espaces imprévisibles et désordonnés, Des chercheurs de l'Université du Michigan ont développé un algorithme qui permet aux machines de percevoir leurs environnements des ordres de grandeur plus rapidement que les approches précédentes similaires.
"La perception des robots est l'un des plus gros goulots d'étranglement dans la fourniture de robots d'assistance capables qui peuvent être déployés dans les maisons des gens, " a déclaré Karthik Desingh, un étudiant diplômé en informatique et ingénierie et auteur principal d'un article sur les travaux publiés dans Robotique scientifique .
« En milieu industriel, où il y a structure, les robots peuvent accomplir des tâches comme construire des voitures très rapidement. Mais nous vivons dans des environnements non structurés, et nous voulons que les robots soient capables de gérer notre fouillis."
Historiquement, les robots fonctionnent plus efficacement dans des environnements structurés, derrière des garde-corps ou des cages pour assurer la sécurité des humains et la propreté et l'ordre de l'espace de travail du robot. Cependant, un environnement humain, au travail ou à la maison, est généralement un fouillis d'objets dans divers états :des papiers sur un clavier, un sac cachant les clés de la voiture, ou un tablier cachant des armoires entrouvertes.
Le nouvel algorithme de l'équipe s'appelle Pull Message Passing for Nonparametric Belief Propagation. En 10 minutes, il peut calculer une compréhension précise de la pose - ou de la position et de l'orientation - d'un objet à un niveau de précision qui prend les approches précédentes plus d'une heure et demie.
L'équipe l'a démontré avec un robot Fetch. Ils ont montré que leur algorithme peut correctement percevoir et utiliser un ensemble de tiroirs, même à moitié recouvert d'une couverture, quand un tiroir est entrouverte, ou lorsque le bras du robot lui-même cache une vue complète du capteur des tiroirs. L'algorithme peut également évoluer au-delà d'une simple commode à un objet avec plusieurs articulations compliquées. Ils ont montré que le robot peut percevoir avec précision son propre corps et son bras de préhension.
"Les concepts derrière notre algorithme, tels que la propagation de croyance non paramétrique, sont déjà utilisés en vision par ordinateur et sont très performants pour capturer les incertitudes de notre monde. Mais ces modèles ont eu un impact limité en robotique car ils sont très coûteux en calcul, nécessitant plus de temps que pratique pour un robot interactif pour aider dans les tâches quotidiennes, " a déclaré Chad Jenkins, professeur d'informatique et d'ingénierie et membre principal du corps professoral du Michigan's Robotics Institute.
Les techniques précédentes reposaient sur la « messagerie push »
La technique de propagation des croyances non paramétriques ainsi que la technique similaire de passage de messages de particules ont été publiées pour la première fois en 2003. Elles sont efficaces en vision par ordinateur, qui tente d'acquérir une compréhension approfondie d'une scène à travers des images et des vidéos. En effet, les images ou vidéos en deux dimensions nécessitent moins de puissance de calcul et de temps que les scènes en trois dimensions impliquées dans la perception des robots.
Ces approches antérieures comprennent une scène en la traduisant en un modèle de graphe de nœuds et d'arêtes, qui représentent chaque composant d'un objet et leurs relations entre eux. Les algorithmes émettent ensuite des hypothèses - ou créent des croyances - des emplacements et des orientations des composants lorsqu'ils sont soumis à un ensemble de contraintes. Ces croyances, que les chercheurs appellent particules, varient selon une gamme de probabilités.
Pour affiner les emplacements et les orientations les plus probables, les composants utilisent une « messagerie push » pour envoyer des informations de localisation probable entre les nœuds et inversement. Ces informations de localisation sont ensuite comparées aux données du capteur. Ce processus prend plusieurs itérations pour finalement arriver à une croyance précise d'une scène.
Par exemple, donné une commode à trois tiroirs, chaque composant de l'objet - dans ce cas, chaque tiroir et la commode elle-même seraient un nœud. Les contraintes seraient que les tiroirs doivent être dans la commode, et les tiroirs se déplacent latéralement mais pas verticalement.
L'information, passé entre les nœuds, est comparé à des observations réelles de capteurs, comme une image 2D et un nuage de points 3D. Les messages sont répétés par itérations jusqu'à ce qu'il y ait un accord entre les croyances et les données du capteur.
Les nouveaux algorithmes passent au « tirer la messagerie »
Pour simplifier les exigences informatiques, Desingh et l'équipe du Michigan ont utilisé ce qu'on appelle la « messagerie d'extraction ». Leur approche transforme la cacophonie des allers-retours, des messages riches en informations en une conversation concise entre les composants d'un objet.
Dans cet exemple, au lieu que la commode envoie des informations de localisation à un tiroir uniquement après avoir calculé les informations des autres tiroirs, la commode vérifie d'abord avec les tiroirs. Il demande à chaque tiroir sa propre croyance de son emplacement, alors, pour Precision, pèse cette croyance contre les informations des autres tiroirs. Elle converge vers une compréhension précise d'une scène par itérations, tout comme l'approche push.
Pour comparer directement leur nouvelle approche avec les approches précédentes, ils l'ont testé sur une simple scène 2-D d'un cercle avec quatre bras rectangulaires cachés parmi un motif de cercles et de rectangles similaires.
Les approches précédentes nécessitaient plus de 20 minutes de temps de traitement par itération pour transmettre les messages, alors que la nouvelle méthode de l'équipe a pris moins de deux minutes, et à mesure que le nombre de croyances ou de particules augmentait, cette amélioration devient exponentiellement plus rapide.
Dans ces épreuves, il a fallu cinq itérations avec leur nouvel algorithme pour obtenir moins d'une erreur moyenne de 3,5 pouces dans l'estimation de l'emplacement des tiroirs et de la commode, ou une erreur moyenne de moins de 8 pouces dans l'estimation de l'emplacement lorsque la commode est partiellement masquée par une couverture.
C'est à égalité avec les approches précédentes, et varie en fonction de la taille d'un objet, nombre de pièces, et combien est visible par les capteurs. Le plus important, la précision augmente suffisamment pour une manipulation réussie des objets par un robot grâce à des itérations continues.
"Ce n'est que le début de ce que nous pouvons faire avec la propagation des croyances dans la perception des robots, " Desingh a déclaré. "Nous voulons étendre notre travail à plusieurs objets et les suivre pendant l'exécution de l'action, et même si le robot ne regarde pas actuellement un objet. Puis, le robot peut utiliser cette capacité pour observer en permanence le monde pour une manipulation ciblée et accomplir des tâches avec succès."