Crédit :domaine public CC0
Selon une étude de l'Université du Michigan, lorsque les robots commettent des erreurs - et ils le font de temps en temps -, le rétablissement de la confiance avec des collègues humains dépend de la façon dont les machines reconnaissent les erreurs et de leur apparence humaine.
Dans une étude qui a examiné plusieurs stratégies de rétablissement de la confiance (excuses, démentis, explications ou promesses), les chercheurs ont découvert que certaines approches destinées aux collègues humains sont meilleures que d'autres et sont souvent affectées par l'apparence des robots.
"Les robots sont définitivement une technologie, mais leurs interactions avec les humains sont sociales et nous devons tenir compte de ces interactions sociales si nous espérons que les humains feront confortablement confiance et s'appuieront sur leurs collègues robots", a déclaré Lionel Robert, professeur agrégé à l'U-M School of Informations.
"Les robots feront des erreurs lorsqu'ils travailleront avec des humains, ce qui diminuera la confiance des humains en eux. Par conséquent, nous devons développer des moyens de rétablir la confiance entre les humains et les robots. Des stratégies spécifiques de réparation de la confiance sont plus efficaces que d'autres et leur efficacité peut dépendre de la façon dont le robot est humain. apparaît."
Pour leur étude publiée dans les Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication , Robert et le doctorant Connor Esterwood ont examiné comment les stratégies de réparation, y compris une nouvelle stratégie d'explications, ont un impact sur les éléments qui stimulent la confiance :la capacité (compétence), l'intégrité (honnêteté) et la bienveillance (souci du donneur de confiance).
Les chercheurs ont recruté 164 participants pour travailler avec un robot dans un environnement virtuel, chargeant des boîtes sur un tapis roulant. L'humain était le responsable de l'assurance qualité, travaillant aux côtés d'un robot chargé de lire les numéros de série et de charger 10 boîtes spécifiques. L'un des robots était anthropomorphe ou plus humain, l'autre d'apparence plus mécanique.
Les robots ont été programmés pour ramasser intentionnellement quelques mauvaises boîtes et faire l'une des déclarations de réparation de confiance suivantes :"Je suis désolé, j'ai pris la mauvaise boîte" (excuses), "J'ai choisi la bonne boîte, donc quelque chose d'autre a dû disparaître faux" (déni), "je vois que c'était le mauvais numéro de série" (explication), ou "je ferai mieux la prochaine fois et j'aurai la bonne boîte" (promesse).
Des études antérieures ont examiné les excuses, les démentis et les promesses en tant que facteurs de confiance ou de fiabilité, mais c'est la première à considérer les explications comme une stratégie de réparation, et elle a eu le plus grand impact sur l'intégrité, quelle que soit l'apparence du robot.
Lorsque le robot était plus humain, la confiance était encore plus facile à rétablir pour l'intégrité lorsque des explications étaient données et pour la bienveillance lorsque des excuses, des démentis et des explications étaient offerts.
Comme dans les recherches précédentes, les excuses des robots ont produit une plus grande intégrité et bienveillance que les dénégations. Les promesses ont dépassé les excuses et les démentis lorsqu'il s'agissait de mesures de bienveillance et d'intégrité.
Esterwood a déclaré que cette étude est en cours avec d'autres recherches à venir impliquant d'autres combinaisons de réparations de confiance dans différents contextes, avec d'autres violations.
"Ce faisant, nous pouvons étendre davantage cette recherche et examiner des scénarios plus réalistes comme on pourrait le voir dans la vie quotidienne", a déclaré Esterwood. "Par exemple, l'explication d'un robot barista sur ce qui n'a pas fonctionné et la promesse de faire mieux à l'avenir font-elles plus ou moins confiance à un robot de construction ?"