Crédit :Arrichiello et al.
Chercheurs de l'Université de Cassino et du sud du Latium, en Italie, ont récemment développé une architecture de pointe qui permet le fonctionnement d'un robot d'assistance via une interface cerveau-ordinateur (BCI) basée sur P300. Cette architecture, présenté dans un article pré-publié sur arXiv, pourrait enfin permettre aux personnes ayant de graves troubles du mouvement d'effectuer des tâches de manipulation, simplifiant ainsi leur vie.
Le système développé par les chercheurs est basé sur un robot manipulateur léger. Essentiellement, ce manipulateur reçoit des commandes de haut niveau des utilisateurs via un BCI basé sur le paradigme P300. En neurosciences, Les ondes P300 sont des réponses provoquées par le cerveau d'un être humain au cours du processus de prise de décision.
"L'objectif principal de notre travail était de réaliser un système qui permet aux utilisateurs de générer des directives de haut niveau pour les manipulateurs robotiques via des interfaces cerveau-ordinateur (BCI), " Philippe Arrichiello, l'un des chercheurs qui a mené l'étude, a déclaré TechXplore. "De telles directives sont ensuite traduites en commandes de mouvement pour le robot manipulateur qui réalise de manière autonome la tâche assignée, tout en assurant la sécurité de l'utilisateur."
L'architecture développée par les chercheurs comporte trois éléments clés :un dispositif P300 BCI, un robot d'assistance et un système de perception. Arrichiello et ses collègues ont intégré ces trois éléments dans un environnement ROS, un middleware logiciel renommé pour les applications robotiques.
Le premier composant de l'architecture, le dispositif P300 BCI, mesure l'activité électrique dans le cerveau par électroencéphalographie (EEG). Il traduit ensuite ces signaux cérébraux en commandes qui peuvent être transmises à un ordinateur.
"Le paradigme P300 pour BCI utilise la réaction du cerveau de l'utilisateur aux stimuli externes, c'est-à-dire le clignotement d'icônes sur un écran, permettre à l'utilisateur de sélectionner un élément à l'écran en réagissant (par exemple, en comptant) à chaque fois que l'icône désirée clignote, " a expliqué Arrichiello. " Cela permet à l'utilisateur d'effectuer un ensemble de choix parmi un ensemble d'éléments prédéfinis et de construire des messages de haut niveau pour le robot concernant l'action à effectuer, comme la manipulation d'un objet."
Pour effectuer les actions souhaitées par les utilisateurs, les chercheurs ont utilisé un manipulateur robotique léger appelé Kinova Jaco. Le logiciel de contrôle de ce robot d'assistance reçoit des directives de haut niveau générées par l'utilisateur via le BCI et les traduit en commandes de mouvement. Son mouvement est contrôlé via un algorithme de cinématique inverse en boucle fermée qui peut gérer simultanément différentes tâches.
Crédit :Arrichiello et al.
Crédit :Arrichiello et al.
« L'architecture de contrôle que nous avons développée permet au robot d'atteindre des objectifs multiples et prioritaires, c'est à dire., réaliser la tâche de manipulation en évitant les collisions avec l'utilisateur et/ou avec des obstacles extérieurs, et en respectant des contraintes comme les limites mécaniques du robot, " a déclaré Arrichiello.
Le dernier composant de l'architecture conçue par Arrichiello et ses collègues est un système de perception basé sur un capteur RVB-D (c'est-à-dire, un Microsoft Kinect One), entre autres. Le système utilise le capteur Kinect One pour détecter et localiser les objets qui doivent être manipulés par le robot dans l'espace de travail. Le capteur peut également détecter le visage d'un utilisateur, estimer la position de sa bouche et reconnaître les obstacles.
"Les implications pratiques de notre étude sont assez simples et ambitieuses, " a déclaré Arrichiello. " Son objectif final est d'aller dans le sens de la construction d'une configuration robotique fiable et efficace qui peut enfin aider les utilisateurs à mobilité réduite à effectuer les opérations de la vie quotidienne de manière autonome et sans le soutien constant d'un soignant. "
Lorsque les chercheurs ont commencé à travailler sur le développement d'un robot d'assistance alimenté par un BCI, ils ont d'abord expérimenté un système composé d'un seul manipulateur à base fixe qui reconnaît les objets à l'aide de marqueurs et d'une interface utilisateur préconfigurée. Ils ont maintenant considérablement avancé cette architecture, au point de permettre aux utilisateurs de manipuler des systèmes robotiques plus complexes, tels que les robots mobiles à double bras.
Crédit :Arrichiello et al.
Crédit :Arrichiello et al.
"Nous avons également amélioré le module de perception, qui peut désormais reconnaître et localiser des objets en fonction de leurs formes, " expliqua Arrichiello. " Enfin, nous avons travaillé sur l'interaction entre le module de perception et l'interface utilisateur graphique (GUI) pour créer une dynamique GUI en accord avec les détections du module de perception (par exemple, l'interface utilisateur est mise à jour en fonction du nombre et du type d'objets reconnus sur une table par le module de perception)."
Pour évaluer les performances et l'efficacité de leur architecture, Arrichiello et ses collègues ont effectué une série d'expériences préliminaires, obtenir des résultats très prometteurs. À l'avenir, leur système pourrait changer la vie des personnes affectées par des troubles du mouvement et des blessures physiques, leur permettant d'effectuer une grande variété de tâches de manipulation.
« Les recherches futures viseront en premier lieu à améliorer la robustesse et la fiabilité de l'architecture, au-delà d'augmenter le domaine d'application du système, " dit Arrichiello. " De plus, nous allons tester différents paradigmes BCI, c'est-à-dire une manière différente d'utiliser le BCI que ceux basés sur l'imagerie motrice, afin d'identifier la plus adaptée aux applications de téléopération, où l'utilisateur peut contrôler le robot en utilisant le BCI comme une sorte de joystick, sans limiter la commande de mouvement transmissible aux robots à un ensemble prédéfini."
© 2019 Réseau Science X