Des chercheurs de l'Université Carnegie Mellon ont démontré que les personnes qui jouent à un jeu avec un robot souffrent de performances lorsque le robot les critique. Crédit :Université Carnegie Mellon
Trash parler a une longue et colorée histoire d'adversaires énervants, et maintenant, des chercheurs de l'Université Carnegie Mellon ont démontré que des mots décourageants peuvent être perturbants même lorsqu'ils sont prononcés par un robot.
Le discours trash dans l'étude était décidément doux, avec des phrases telles que "Je dois dire que vous êtes un mauvais joueur, " et " Au cours du jeu, votre jeu est devenu confus. " Même ainsi, les personnes qui ont joué à un jeu avec le robot – un robot humanoïde disponible dans le commerce connu sous le nom de Pepper – ont eu de moins bons résultats lorsque le robot les a découragés et mieux lorsque le robot les a encouragés.
L'auteur principal Aaron M. Roth a déclaré que certains des 40 participants à l'étude étaient techniquement sophistiqués et comprenaient parfaitement qu'une machine était la source de leur inconfort.
"Un participant a dit, 'Je n'aime pas ce que dit le robot, mais c'est comme ça que ça a été programmé donc je ne peux pas le blâmer, '" dit Roth, qui a mené l'étude alors qu'il était étudiant à la maîtrise à l'Institut de robotique CMU.
Mais les chercheurs ont découvert que, globalement, la performance humaine refluait indépendamment de la sophistication technique.
L'étude, présenté le mois dernier à la conférence internationale IEEE sur le robot et la communication interactive humaine (RO-MAN) à New Delhi, Inde, est un changement par rapport aux études d'interaction homme-robot typiques, qui ont tendance à se concentrer sur la façon dont les humains et les robots peuvent mieux travailler ensemble.
"C'est l'une des premières études sur l'interaction homme-robot dans un environnement où ils ne coopèrent pas, " a déclaré le co-auteur Fei Fang, professeur assistant à l'Institute for Software Research. Cela a d'énormes implications pour un monde où le nombre de robots et d'appareils Internet des objets (IoT) dotés de capacités d'intelligence artificielle devrait croître de manière exponentielle. "On peut s'attendre à ce que les aides à domicile soient coopératives, " elle a dit, "mais dans des situations telles que les achats en ligne, ils n'ont peut-être pas les mêmes objectifs que nous."
L'étude était une excroissance d'un projet étudiant en méthodes d'IA pour le bien social, un cours que Fang enseigne. Les étudiants ont voulu explorer les usages de la théorie des jeux et de la rationalité limitée dans le contexte des robots, ils ont donc conçu une étude dans laquelle des humains rivaliseraient avec un robot dans un jeu appelé "Gardes et trésors". Un jeu dit de Stackelberg, les chercheurs l'utilisent pour étudier la rationalité. Il s'agit d'un jeu typique utilisé pour étudier l'interaction défenseur-attaquant dans la recherche sur les jeux de sécurité, un domaine dans lequel Fang a fait un travail considérable.
Chaque participant a joué au jeu 35 fois avec le robot, tout en s'imprégnant des mots encourageants du robot ou en se faisant roussir les oreilles par des remarques méprisantes. Bien que la rationalité des joueurs humains s'améliore à mesure que le nombre de parties jouées augmente, ceux qui ont été critiqués par le robot n'ont pas été aussi bien notés que ceux qui ont été félicités.
Il est bien établi que la performance d'un individu est affectée par ce que les autres disent, mais l'étude montre que les humains réagissent aussi à ce que disent les machines, dit Afsaneh Doryab, un scientifique des systèmes à l'Institut d'interaction homme-machine (HCII) de la CMU pendant l'étude et maintenant professeur adjoint en systèmes d'ingénierie et environnement à l'Université de Virginie. La capacité de cette machine à inciter des réponses pourrait avoir des implications pour l'apprentissage automatisé, traitement de santé mentale et même l'utilisation de robots comme compagnons, elle a dit.
Les travaux futurs pourraient se concentrer sur l'expression non verbale entre le robot et les humains, dit Roth, maintenant un doctorat. étudiant à l'Université du Maryland. Fang suggère qu'il faut en apprendre davantage sur la façon dont les différents types de machines, par exemple, un robot humanoïde par rapport à une boîte d'ordinateur - pourrait invoquer des réponses différentes chez les humains.