Crédit :Université d'État du Michigan
Stressé? Besoin de parler? Se tourner vers un chatbot pour un soutien émotionnel pourrait aider.
Jingbo Meng, professeur agrégé de communication à ComArtSci, voulait voir à quel point les chatbots d'intelligence artificielle (IA) pouvaient être efficaces pour diffuser des messages de soutien. Elle a donc mis en place la recherche et utilisé une plate-forme de développement de chatbot pour la tester.
"Les chatbots ont été largement appliqués dans le service client via une communication textuelle ou vocale", a-t-elle déclaré. "C'est une extension naturelle de réfléchir à la façon dont les chatbots IA peuvent jouer un rôle en fournissant de l'empathie après avoir écouté les histoires et les préoccupations de quelqu'un."
En discuter
Début 2019, Meng a commencé à évaluer l'efficacité des chatbots empathiques en les comparant au chat humain. Elle avait suivi la croissance des applications numériques de santé et de bien-être et a vu la croissance phénoménale de celles liées à la santé mentale. Sa précédente collaboration avec des collègues ingénieurs de MSU s'est concentrée sur un système mobile portable pour détecter, suivre et interroger les utilisateurs sur les marqueurs comportementaux de stress et de dépression. La collaboration l'a inspirée à utiliser des chatbots qui initient des conversations avec les utilisateurs lorsque les marqueurs comportementaux sont identifiés.
"Nous avons senti que certaines communications de chatbot pourraient fonctionner, d'autres non", a déclaré Meng. "Je voulais faire plus de recherches pour comprendre pourquoi afin que nous puissions développer des messages plus efficaces à utiliser dans les applications de santé mentale."
Meng a recruté 278 étudiants de premier cycle de la MSU pour son étude et leur a demandé d'identifier les principaux facteurs de stress qu'ils avaient rencontrés au cours du mois dernier. Les participants ont ensuite été connectés via Facebook Messenger avec un partenaire de chat empathique. Un groupe a été informé qu'il parlerait avec un chatbot, un autre a compris qu'il parlerait avec un humain. La ride ? Meng l'a configuré de sorte que seuls les chatbots envoient des requêtes et des messages, ce qui lui permet de mesurer si les participants réagissent différemment lorsqu'ils pensent que leur partenaire de chat est humain.
Meng a également fait varier le niveau d'auto-divulgation réciproque que les participants connaîtraient au cours de leurs sessions de 20 minutes. Certains chatbots ont partagé leurs propres expériences comme moyen d'évoquer l'empathie. D'autres chatbots ont simplement exposé leurs propres problèmes personnels au prix de ne pas valider les participants."
À l'exception des différents scénarios d'auto-divulgation réciproque, le contenu et le flux des conversations ont été scénarisés exactement de la même manière pour les chatbots et pour les partenaires de chat humains perçus. Les chatbots ont demandé aux participants d'identifier les facteurs de stress. Ils ont demandé comment les participants se sentaient. Ils ont cherché à savoir pourquoi les participants pensaient que les facteurs de stress les faisaient se sentir d'une certaine manière. Ensuite, les chatbots ont partagé leurs propres expériences.
"Ils ont été programmés pour valider et aider les participants à traverser des situations stressantes", a-t-elle déclaré. "Notre objectif était de voir à quel point le message pouvait être efficace."
Prendre soin
Meng a découvert que, qu'il s'agisse de parler à un chatbot ou à un humain, un participant devait sentir que son partenaire le soutenait ou s'en souciait. Si cette condition est remplie, la conversation réussit à réduire le stress.
Son étude a également révélé que, quel que soit le message, les participants estimaient que les humains étaient plus attentionnés et solidaires qu'un chatbot.
Ses scénarios sur l'auto-divulgation réciproque racontaient une autre histoire. Les partenaires humains qui se sont révélés – que leur intention soit d'être empathiques ou simplement d'élaborer sur leurs propres problèmes – ont contribué à la réduction du stress. Mais les chatbots qui se sont révélés sans offrir de soutien émotionnel n'ont pas fait grand-chose pour réduire le stress d'un participant, encore moins que les chatbots qui n'ont rien dit du tout.
"Les humains sont simplement plus faciles à comprendre", a déclaré Meng. "Lorsque nous parlons avec un autre humain, même s'il ne valide pas nos émotions, nous pouvons nous identifier plus naturellement. Les chatbots, cependant, doivent être plus explicites et envoyer des messages de meilleure qualité. Sinon, la révélation de soi peut être ennuyeuse et agaçante. -mettre."
Percevoir la source
Meng a mené et analysé des recherches avec Yue (Nancy) Dai, une ancienne élève du programme de doctorat en communication de MSU en 2018 et professeure à la City University de Hong Kong. Leurs découvertes ont été publiées dans le Journal of Computer-Mediated Communication.
Meng a déclaré que l'étude souligne que les chatbots utilisés dans les applications de santé mentale fonctionnent mieux lorsqu'ils sont perçus comme une source vraiment attentionnée. Elle prévoit de poursuivre l'étude avec des recherches supplémentaires qui examinent comment la messagerie peut être conçue pour augmenter le facteur de bienveillance.
Les applications de santé mentale, a-t-elle dit, ne disparaissent pas et, en fait, leur utilisation et leur disponibilité augmentent. Alors que la majorité des gens ont accès à un téléphone portable, beaucoup n'ont pas facilement accès à un thérapeute ou à une assurance maladie. Les applications, a-t-elle dit, peuvent aider les individus à gérer des situations particulières et peuvent fournir des références pour des soins de soutien supplémentaires.
"Ces applications et ces chatbots ne remplaceront en aucun cas un humain", a-t-elle déclaré. "Nous pensons que le modèle hybride des chatbots IA et d'un thérapeute humain sera très prometteur."