Crédit :domaine public CC0
La personne serviable qui vous guide tout au long de votre achat en ligne n'est peut-être pas du tout une personne.
À mesure que l'intelligence artificielle et le traitement du langage naturel progressent, nous ne savons souvent pas si nous parlons à une personne ou à un chatbot alimenté par l'IA, explique Tom Kelleher, Ph.D., professeur de publicité au College of Journalism and de l'Université de Floride. Communications. Selon Kelleher, ce qui compte plus que qui (ou quoi) est de l'autre côté du chat, c'est l'humanité perçue de l'interaction.
Avec l'omniprésence des robots textuels et l'émergence de systèmes vocaux alimentés par l'IA, les consommateurs de tout, des chaussures aux assurances, peuvent se retrouver à parler à des non-humains. Les entreprises devront décider quand les bots sont appropriés et efficaces et quand ils ne le sont pas. Cela a conduit Kelleher - avec des collègues de l'UF, de la California Polytechnic et de l'Université du Connecticut - à développer une mesure de l'humanité perçue. Ils ont partagé leurs résultats dans la revue Computers in Human Behavior .
Dans l'étude, les participants ont discuté avec des robots ou des agents humains d'entreprises comme Express, Amazon et Best Buy, et les ont évalués sur l'humanité. Soixante-trois des 172 participants n'ont pas pu identifier s'ils interagissaient avec un humain ou une machine. Mais que l'interaction comprenne ou non l'IA, des scores plus élevés d'humanité perçue ont conduit à une plus grande confiance des consommateurs dans les entreprises.
"Si les gens avaient l'impression que c'était humain - soit avec une très bonne IA, soit avec une vraie personne - alors ils avaient l'impression que l'organisation investissait dans la relation. Ils diront:" D'accord, cette entreprise essaie vraiment. Ils ont consacrer du temps ou des ressources à cela, et donc je fais confiance à l'organisation », a déclaré Kelleher.
Kelleher a commencé à étudier comment la langue affecte la confiance des clients il y a plus de dix ans, lorsque la culture des blogs a introduit une approche conversationnelle des entreprises linguistiques étouffantes et guindées qui avaient tendance à matraquer leurs clients. Les entreprises ont remarqué qu'à mesure que le jargon diminuait, la confiance, la satisfaction et l'engagement des consommateurs augmentaient. La nouvelle étude montre qu'il en va de même pour les chatbots et autres interactions en ligne, et qu'elle peut s'appliquer aussi bien aux robots qu'aux humains. ("Un agent peut être tellement scénarisé que les gens ont l'impression de parler à une machine", a-t-il expliqué.)
Au fur et à mesure que les interfaces alimentées par l'IA fleurissent, même en s'étendant pour inclure des avatars animés qui ont l'air humains, des problèmes éthiques suivront. Les entreprises devraient-elles divulguer lorsque les clients interagissent avec un agent non humain ? Et si l'assistant est un hybride :une personne assistée par l'IA ? Existe-t-il des domaines où les consommateurs n'accepteront pas les bots, tels que les soins de santé, ou des situations où ils pourraient préférer un non-humain ?
"Si j'essaie juste d'obtenir un devis d'assurance, je préférerais presque mettre quelque chose dans une application plutôt que de parler un peu de la météo. Mais plus tard, si ma maison est inondée, je voudrai parler à une vraie personne », a déclaré Kelleher. "Au fur et à mesure que le métaverse évolue, comprendre quand utiliser l'IA et quand employer de vraies personnes sera une décision commerciale de plus en plus importante."