Crédit :Pixabay/CC0 Domaine public
Des chercheurs de l'Université du Kentucky, de l'Université de technologie de Sydney et de l'Université de l'Illinois à Chicago ont publié un nouvel article dans le Journal of Marketing qui examine les implications de la réponse et de la satisfaction des clients de l'utilisation d'agents d'IA par rapport aux agents humains.
L'étude, à paraître dans le Journal of Marketing, s'intitule "Bad News ? Send an AI. Good News? Send a Human" et est écrit par Aaron Garvey, TaeWoo Kim, Adam Duhachek.
Sommes-nous plus indulgents envers un agent d'intelligence artificielle (IA) qu'un humain lorsque nous sommes déçus ? Vous appréciez moins un bot IA qu'un humain quand on nous aide ? Une nouvelle recherche examine ces questions et découvre que les consommateurs réagissent différemment aux traitements favorables et défavorables de la part d'un agent d'IA par rapport à un autre humain.
Les consommateurs et les responsables marketing sont actuellement dans une période de transition technologique où les agents d'IA remplacent de plus en plus les représentants humains. Les agents d'IA ont été adoptés dans un large éventail de domaines de consommation pour gérer les transactions des clients, y compris la vente au détail traditionnelle, les voyages, le covoiturage et le partage de résidence, et même les services juridiques et médicaux. Compte tenu des capacités avancées de traitement de l'information des agents d'IA et des avantages en termes de coût de la main-d'œuvre, la transition des représentants humains pour l'administration des produits et services devrait se poursuivre. Cependant, quelles sont les implications pour la réponse et la satisfaction des clients ?
Les chercheurs constatent que lorsqu'une offre de produit ou de service est moins bonne que prévu, les consommateurs réagissent mieux lorsqu'ils traitent avec un agent d'IA. En revanche, pour une offre meilleure que prévu, les consommateurs répondent plus favorablement à un agent humain. Garvey explique que "Cela se produit parce que les agents d'IA, par rapport aux agents humains, sont perçus comme ayant des intentions personnelles plus faibles lors de la prise de décisions. Autrement dit, puisqu'un agent d'IA est une machine non humaine, les consommateurs ne croient généralement pas que le comportement d'un agent est motivé par l'égoïsme ou la gentillesse sous-jacente." En conséquence, les consommateurs pensent que les agents d'IA manquent d'intentions égoïstes (qui seraient généralement punies) dans le cas d'une offre défavorable et manquent d'intentions bienveillantes (qui seraient généralement récompensées) dans le cas d'une offre favorable.
Concevoir un agent d'IA pour qu'il apparaisse plus humain peut changer la réponse des consommateurs. Par exemple, un robot de service qui semble plus humain (par exemple, avec une structure du corps humain et des traits du visage) suscite des réponses plus favorables à une offre meilleure que prévu qu'un agent d'IA plus semblable à une machine sans traits humains. Cela se produit parce que les agents d'IA qui ressemblent plus à des humains sont perçus comme ayant des intentions plus fortes lorsqu'ils font l'offre.
Qu'est-ce que cela signifie pour les responsables marketing ? Kim déclare :"Pour un spécialiste du marketing qui est sur le point d'annoncer une mauvaise nouvelle à un client, un représentant de l'IA améliorera la réponse de ce client. Ce serait la meilleure approche pour les situations négatives telles que les offres de prix étonnamment élevées, les annulations, les retards, les évaluations négatives, changements de statut, défauts de produit, rejets, pannes de service et ruptures de stock. Cependant, les bonnes nouvelles sont mieux communiquées par un être humain. Des résultats positifs inattendus pourraient inclure des livraisons accélérées, des remises, des mises à niveau, des offres groupées de services, des offres exclusives, des récompenses de fidélité et des promotions client.
Les managers peuvent appliquer nos découvertes pour prioriser (plutôt que retarder) les transitions entre les rôles humains et IA dans les situations où les interactions négatives (vs. positives) sont plus fréquentes. De plus, même lorsqu'une transition de rôle n'est pas entièrement passée à un agent d'IA, le recrutement sélectif d'un agent d'IA pour divulguer certaines informations négatives pourrait toujours être avantageux. Les entreprises qui sont déjà passées aux agents d'IA destinés aux consommateurs, y compris la multitude d'applications en ligne et mobiles qui utilisent des algorithmes basés sur l'IA pour créer et administrer des offres, devraient également bénéficier de nos conclusions. Nos recherches révèlent que les agents d'IA devraient être sélectivement conçus pour apparaître plus ou moins humains selon la situation. Pour les consommateurs, ces résultats révèlent un "angle mort" lorsqu'ils traitent avec des agents d'IA, en particulier lorsqu'ils envisagent des offres qui ne répondent pas aux attentes. En effet, la recherche révèle un dilemme éthique autour de l'utilisation d'agents d'IA :est-il approprié d'utiliser l'IA pour contourner la résistance des consommateurs aux offres médiocres ? "Nous espérons que sensibiliser les consommateurs à ce phénomène améliorera la qualité de leurs décisions lorsqu'ils traitent avec des agents d'IA, tout en fournissant aux responsables marketing des techniques, telles que rendre l'IA plus humaine dans certains contextes, pour gérer ce dilemme", déclare Duhachek.