• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Des machines empathiques favorisées par les sceptiques mais qui pourraient effrayer les croyants

    Crédit :CC0 Domaine public

    La plupart des gens apprécieraient un chatbot qui offre des réponses sympathiques ou empathiques, selon une équipe de chercheurs, mais ils ont ajouté que la réaction peut dépendre de la façon dont la personne est à l'aise avec l'idée d'une machine à ressentir.

    Dans une étude, les chercheurs ont rapporté que les gens préféraient recevoir des réponses sympathiques et empathiques d'un chatbot - une machine programmée pour simuler une conversation - que de recevoir une réponse d'une machine sans émotions, dit S. Shyam Sundar, James P. Jimirro Professeur de Media Effects et co-directeur du Media Effects Research Laboratory. Les gens expriment de la sympathie lorsqu'ils ressentent de la compassion pour une personne, alors qu'ils expriment de l'empathie lorsqu'ils ressentent réellement les mêmes émotions que l'autre personne, dit Sundar.

    Alors que les prestataires de soins de santé cherchent des moyens de réduire les coûts et d'améliorer le service, il a ajouté que ces résultats pourraient aider les développeurs à créer des technologies conversationnelles qui encouragent les gens à partager des informations sur leur état de santé physique et mentale, par exemple.

    "De plus en plus, comme nous avons de plus en plus de chatbots et d'agents conversationnels pilotés par l'IA parmi nous, " dit Sundar. " Et, alors que de plus en plus de personnes commencent à se tourner vers leur haut-parleur intelligent ou leur chatbot sur un forum de santé pour obtenir des conseils, ou pour un soutien social et affectif, la question devient :dans quelle mesure ces chatbots et haut-parleurs intelligents devraient-ils exprimer des émotions humaines ?"

    Alors que les machines d'aujourd'hui ne peuvent vraiment ressentir ni sympathie ni empathie, les développeurs pourraient programmer ces signaux dans la technologie actuelle de chatbot et d'assistant vocal, selon les chercheurs qui rapportent leurs découvertes dans le numéro actuel de Cyberpsychologie, Comportement et réseaux sociaux .

    Cependant, les chatbots peuvent devenir trop personnels pour certaines personnes, dit Bingjie Liu, un doctorant en communication de masse, qui a travaillé avec Sundar sur l'étude. Elle a déclaré que les participants à l'étude qui se méfiaient des machines conscientes ont indiqué qu'ils étaient impressionnés par les chatbots programmés pour faire des déclarations de sympathie et d'empathie.

    "La majorité des personnes de notre échantillon ne croyaient pas vraiment aux émotions des machines, donc, dans notre interprétation, ils ont pris ces expressions d'empathie et de sympathie comme des politesses, " a dit Liu. " Quand nous avons regardé les gens qui ont des croyances différentes, cependant, nous avons constaté que les personnes qui pensent qu'il est possible que les machines puissent avoir des émotions ont eu des réactions négatives à ces expressions de sympathie et d'empathie de la part des chatbots."

    Les chercheurs ont recruté 88 volontaires d'une université et d'Amazon Mechanical Turk, une plate-forme de tâches en ligne. Les volontaires ont été invités à interagir avec l'un des quatre chatbots de services de santé en ligne différents programmés pour fournir des réponses spécifiques à l'une des quatre conditions définies par les chercheurs :sympathie, deux types différents d'empathie - l'empathie cognitive et l'empathie affective - ou, une condition de contrôle de conseil uniquement.

    Dans la version sympathique, le chatbot a répondu par une déclaration, tel que, "Je suis désolé de l'entendre." Le chatbot programmé pour l'empathie cognitive, qui a reconnu les sentiments de l'utilisateur, peut dire, "Ce problème peut être assez dérangeant." Un chatbot exprimant de l'empathie affective pourrait répondre par une phrase qui montrait que la machine comprenait comment et pourquoi un utilisateur ressentait ce qu'il ressentait, tel que, « Je comprends votre anxiété face à la situation.

    Les chercheurs ont déclaré que l'empathie et la sympathie affectives fonctionnaient le mieux.

    « Nous avons constaté que l'empathie cognitive - où la réponse est quelque peu détachée et elle aborde le problème d'un point de vue réfléchi, mais de manière presque antiseptique - n'a pas tout à fait fonctionné, " dit Sundar." Bien sûr, les chatbots et les robots le font très bien, mais c'est aussi le stéréotype des machines. Et ça n'a pas l'air d'être aussi efficace. Ce qui semble fonctionner le mieux, c'est l'empathie affective, ou une expression de sympathie."

    Dans une étude précédente, les chercheurs ont demandé aux participants de simplement lire le script de la conversation entre un sujet humain et une machine. Ils ont trouvé des effets similaires sur l'utilisation de la sympathie et de l'empathie dans les messages.

    Les chercheurs ont déclaré que les recherches futures pourraient examiner comment les interactions sympathiques et empathiques fonctionnent pour différents problèmes au-delà de la santé et de la sexualité, ainsi que d'enquêter sur ce que ressentent les gens si des machines et des robots ressemblant à des humains fournissent ce type de réponses.

    "Nous voulons voir s'il s'agit d'un modèle cohérent dans la façon dont les humains réagissent aux émotions des machines, " dit Liu.


    © Science https://fr.scienceaq.com