• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les robots qui admettent des erreurs favorisent une meilleure conversation chez les humains

    Crédit :CC0 Domaine Public

    Trois personnes et un robot forment une équipe jouant à un jeu. Le robot fait une erreur, coûte un tour à l'équipe. Comme tout bon coéquipier, il reconnaît l'erreur.

    "Désolé, les gars, J'ai fait l'erreur ce tour, " il dit. " Je sais que cela peut être difficile à croire, mais les robots font aussi des erreurs."

    Ce scénario s'est produit à plusieurs reprises au cours d'une étude menée par Yale sur les effets des robots sur les interactions entre humains.

    L'étude, qui publiera le 9 mars dans le Actes de l'Académie nationale des sciences , ont montré que les humains des équipes comprenant un robot exprimant une vulnérabilité communiquaient davantage les uns avec les autres et déclaraient plus tard avoir une expérience de groupe plus positive que les personnes faisant équipe avec des robots silencieux ou avec des robots qui faisaient des déclarations neutres, comme réciter le score du match.

    "Nous savons que les robots peuvent influencer le comportement des humains avec lesquels ils interagissent directement, mais comment les robots affectent la façon dont les humains interagissent les uns avec les autres est moins bien compris, " a déclaré Margaret L. Traeger, un doctorat candidat en sociologie au Yale Institute for Network Science (YINS) et auteur principal de l'étude. "Notre étude montre que les robots peuvent affecter les interactions d'humain à humain."

    Parce que les robots sociaux sont de plus en plus répandus dans la société humaine, elle a dit, les gens les rencontrent dans les magasins, hôpitaux et autres lieux de la vie quotidienne. Il est donc important de comprendre comment ils façonnent le comportement humain.

    "Dans ce cas, " Traeger a dit, "nous montrons que les robots peuvent aider les gens à communiquer plus efficacement en équipe."

    Les chercheurs ont mené une expérience dans laquelle 153 personnes ont été divisées en 51 groupes composés de trois humains et d'un robot. Chaque groupe a joué à un jeu sur tablette dans lequel les membres ont travaillé ensemble pour construire les itinéraires de chemin de fer les plus efficaces sur 30 tours. Les groupes ont été affectés à l'une des trois conditions caractérisées par différents types de comportement de robot. A la fin de chaque tour, les robots soit sont restés silencieux, prononcé un neutre, énoncé lié à la tâche (comme le score ou le nombre de tours terminés), ou a exprimé sa vulnérabilité à travers une blague, histoire personnelle, ou en reconnaissant une erreur ; tous les robots perdaient parfois une manche.

    Les personnes faisant équipe avec des robots qui faisaient des déclarations vulnérables passaient environ deux fois plus de temps à se parler pendant le jeu, et ils ont déclaré avoir plus apprécié l'expérience que les personnes des deux autres types de groupes, l'étude a trouvé.

    La conversation entre les humains a augmenté davantage pendant le jeu lorsque les robots ont fait des déclarations vulnérables que lorsqu'ils ont fait des déclarations neutres. La conversation entre les humains était plus uniformément répartie lorsque le robot était vulnérable au lieu d'être silencieux.

    L'expérience a également montré une participation verbale plus égale parmi les membres de l'équipe dans les groupes avec les robots vulnérables et neutres que parmi les membres dans les groupes avec les robots silencieux, suggérant que la présence d'un robot parlant encourage les gens à se parler de manière plus équitable.

    "Nous nous intéressons à la façon dont la société changera à mesure que nous ajouterons des formes d'intelligence artificielle à notre milieu, " a déclaré Nicholas A. Christakis, Sterling professeur de sciences sociales et naturelles. "Alors que nous créons des systèmes sociaux hybrides d'humains et de machines, nous devons évaluer comment programmer les agents robotiques afin qu'ils ne corrodent pas la façon dont nous nous traitons les uns les autres."

    Comprendre l'influence sociale des robots dans les espaces humains est important même lorsque les robots ne remplissent pas intentionnellement une fonction sociale, dit Sarah Strohkorb Sebo, un doctorat candidat au Département d'informatique et co-auteur de l'étude.

    "Imaginez un robot dans une usine dont la tâche est de distribuer des pièces aux ouvriers sur une chaîne de montage, " dit-elle. " S'il remet tous les morceaux à une seule personne, cela peut créer un environnement social gênant dans lequel les autres travailleurs se demandent si le robot pense qu'ils sont inférieurs à la tâche. Nos découvertes peuvent éclairer la conception de robots qui favorisent l'engagement social, participation équilibrée, et des expériences positives pour les personnes travaillant en équipe."


    © Science https://fr.scienceaq.com