• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Contrôler des robots avec des ondes cérébrales et des gestes de la main

    En surveillant l'activité cérébrale, le système peut détecter en temps réel si une personne remarque une erreur pendant qu'un robot effectue une tâche. Crédit :MIT CSAIL

    Faire faire des choses aux robots n'est pas facile :en général, les scientifiques doivent soit les programmer explicitement, soit leur faire comprendre comment les humains communiquent via le langage.

    Mais et si nous pouvions contrôler les robots de manière plus intuitive, en utilisant uniquement des gestes de la main et des ondes cérébrales ?

    Un nouveau système dirigé par des chercheurs du Laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT vise à faire exactement cela, permettant aux utilisateurs de corriger instantanément les erreurs du robot avec rien de plus que des signaux cérébraux et un simple mouvement du doigt.

    En s'appuyant sur les travaux antérieurs de l'équipe axés sur des activités à choix binaires simples, le nouveau travail étend la portée aux tâches à choix multiples, ouvrant de nouvelles possibilités sur la façon dont les travailleurs humains pourraient gérer des équipes de robots.

    En surveillant l'activité cérébrale, le système peut détecter en temps réel si une personne remarque une erreur pendant qu'un robot effectue une tâche. A l'aide d'une interface qui mesure l'activité musculaire, la personne peut alors faire des gestes de la main pour faire défiler et sélectionner l'option correcte à exécuter par le robot.

    L'équipe a démontré le système sur une tâche dans laquelle un robot déplace une perceuse électrique vers l'une des trois cibles possibles sur le corps d'un avion fictif. Surtout, ils ont montré que le système fonctionne sur des gens comme il n'en a jamais vu auparavant, ce qui signifie que les organisations pourraient le déployer dans des environnements réels sans avoir besoin de le former sur les utilisateurs.

    "Ce travail combinant les retours EEG et EMG permet des interactions homme-robot naturelles pour un ensemble d'applications plus large que ce que nous pouvions faire avant d'utiliser uniquement les retours EEG, " déclare Daniela Rus, directrice du CSAIL, qui a supervisé les travaux. "En incluant le feedback musculaire, nous pouvons utiliser des gestes pour commander le robot dans l'espace, avec beaucoup plus de nuance et de spécificité."

    doctorat le candidat Joseph DelPreto était l'auteur principal d'un article sur le projet aux côtés de Rus, ancien associé postdoctoral CSAIL Andres F. Salazar-Gomez, ancienne chercheuse du CSAIL Stéphanie Gil, chercheur Ramin M. Hasani, et le professeur de l'Université de Boston Frank H. Guenther. L'article sera présenté à la conférence Robotics:Science and Systems (RSS) qui aura lieu à Pittsburgh la semaine prochaine.

    Interaction intuitive homme-robot

    Dans la plupart des travaux antérieurs, les systèmes ne pouvaient généralement reconnaître les signaux cérébraux que lorsque les gens se sont entraînés à « penser » de manière très spécifique mais arbitraire et lorsque le système a été entraîné sur de tels signaux. Par exemple, un opérateur humain peut avoir à regarder différents affichages lumineux qui correspondent à différentes tâches de robot au cours d'une session de formation.

    Sans surprise, de telles approches sont difficiles à gérer de manière fiable, surtout s'ils travaillent dans des domaines comme la construction ou la navigation qui nécessitent déjà une concentration intense.

    Pendant ce temps, L'équipe de Rus a exploité la puissance des signaux cérébraux appelés « potentiels liés aux erreurs » (ErrP), que les chercheurs ont découvert se produire naturellement lorsque les gens remarquent des erreurs. S'il y a un ErrP, le système s'arrête pour que l'utilisateur puisse le corriger ; si non, ça continue.

    "Ce qui est génial avec cette approche, c'est qu'il n'y a pas besoin de former les utilisateurs à penser d'une manière prescrite, " dit DelPreto. " La machine s'adapte à vous, et non l'inverse."

    Pour le projet, l'équipe a utilisé "Baxter", un robot humanoïde de Rethink Robotics. Sous supervision humaine, le robot est passé du choix de la bonne cible 70 % du temps à plus de 97 % du temps.

    Pour créer le système, l'équipe a exploité la puissance de l'électroencéphalographie (EEG) pour l'activité cérébrale et de l'électromyographie (EMG) pour l'activité musculaire, placer une série d'électrodes sur le cuir chevelu et l'avant-bras des utilisateurs.

    Les deux métriques présentent des lacunes individuelles :les signaux EEG ne sont pas toujours détectables de manière fiable, tandis que les signaux EMG peuvent parfois être difficiles à mettre en correspondance avec des mouvements plus spécifiques que "déplacer vers la gauche ou la droite". Fusion des deux, cependant, permet une biodétection plus robuste et permet au système de travailler sur de nouveaux utilisateurs sans formation.

    "En regardant à la fois les signaux musculaires et cérébraux, nous pouvons commencer à comprendre les gestes naturels d'une personne ainsi que ses décisions instantanées quant à savoir si quelque chose ne va pas, ", explique DelPreto. "Cela aide à rendre la communication avec un robot plus semblable à la communication avec une autre personne."

    L'équipe dit qu'ils pourraient imaginer le système un jour utile pour les personnes âgées, ou les travailleurs ayant des troubles du langage ou une mobilité réduite.

    "Nous aimerions sortir d'un monde où les hommes doivent s'adapter aux contraintes des machines, " dit Rus. " Des approches comme celle-ci montrent qu'il est tout à fait possible de développer des systèmes robotiques qui sont une extension plus naturelle et intuitive de nous. "


    © Science https://fr.scienceaq.com