Crédit :CC0 Domaine public
L'utilisation de l'intelligence artificielle (IA), des technologies capables d'interagir avec l'environnement et de simuler l'intelligence humaine, a le potentiel de changer considérablement notre façon de travailler. L'intégration réussie de l'IA dans les organisations dépend du niveau de confiance des travailleurs dans la technologie. Une nouvelle revue a examiné deux décennies de recherche sur la façon dont les gens développent la confiance dans l'IA. Les auteurs ont conclu que la façon dont l'IA est représentée, ou "incarné, " et les capacités de l'IA contribuent à développer la confiance. Ils ont également proposé un cadre qui aborde les éléments qui façonnent la confiance cognitive et émotionnelle des utilisateurs dans l'IA, qui peut aider les organisations qui l'utilisent.
L'article, par des chercheurs de l'Université Carnegie Mellon et de l'Université Bar Ilan, apparaît dans Annales de l'Académie de gestion .
"La confiance que les utilisateurs développent dans l'IA sera centrale pour déterminer son rôle dans les organisations, " explique Anita Williams Woolley, Professeur agrégé de comportement organisationnel et de théorie à la Tepper School of Business de l'Université Carnegie Mellon, qui a co-écrit l'étude. « Nous avons abordé la nature dynamique de la confiance en explorant comment la confiance se développe pour les personnes interagissant avec différentes représentations de l'IA (par exemple, robots, agents virtuels, ou embarqué) ainsi que les fonctionnalités de l'IA qui facilitent le développement de la confiance."
Spécifiquement, les chercheurs ont observé le rôle de la tangibilité (la capacité d'être perçu ou touché), la transparence (le niveau auquel les règles de fonctionnement et la logique de la technologie sont apparentes aux utilisateurs), et la fiabilité (si la technologie présente le même comportement attendu au fil du temps). Ils ont également pris en compte les caractéristiques des tâches (comment les jugements techniques par rapport aux jugements interpersonnels sont traités) et les comportements immédiats (gestes à orientation sociale destinés à accroître la proximité interpersonnelle, comme l'écoute active et la réactivité). Ils ont également examiné l'anthropomorphisme (la perception que la technologie peut avoir des qualités humaines).
Les auteurs ont recherché dans Google Scholar des articles sur la confiance humaine dans l'IA publiés entre 1999 et 2019, identifiant environ 200 articles évalués par des pairs et actes de conférence. Les champs représentés comprenaient le comportement organisationnel, interactions homme-machine, interactions robot-humain, systèmes d'information, informatique, et ingénierie. Ils ont également utilisé trois bases de données pour identifier 50 articles supplémentaires. À la fin, ils ont examiné environ 150 articles qui présentaient des recherches empiriques sur la confiance humaine dans l'IA.
Les auteurs ont découvert que la représentation de l'IA jouait un rôle important dans la nature de la confiance cognitive que les gens développent. Pour l'IA robotique, la trajectoire de développement de la confiance ressemblait à celle de la création de la confiance dans les relations humaines, commençant bas et augmentant après plus d'expérience. Mais pour l'IA virtuelle et embarquée, l'inverse s'est produit :la confiance initiale élevée a diminué après l'expérience.
Les auteurs ont également constaté que le niveau d'intelligence artificielle caractérisant l'IA peut modérer le développement de la confiance cognitive, avec un haut niveau d'intelligence conduisant à une plus grande confiance après l'utilisation et l'expérience. Pour l'IA robotique, un niveau élevé d'intelligence machine a généralement conduit à un développement plus rapide d'un niveau élevé de confiance. Pour l'IA virtuelle et embarquée, une intelligence machine élevée offrait la possibilité de maintenir les niveaux de confiance initiaux élevés. La transparence était également un facteur important pour établir la confiance cognitive dans l'IA virtuelle et intégrée, bien que la relation entre la fiabilité et le développement de la confiance dans l'IA soit complexe.
L'anthropomorphisme était particulièrement important pour le développement de la confiance émotionnelle, mais son effet différait selon la forme de l'IA. Pour l'IA virtuelle, l'anthropomorphisme a eu un effet positif. Pour l'IA robotique, les effets étaient mitigés :les gens avaient tendance à préférer les robots anthropomorphes aux robots d'apparence mécanique, mais ces robots ressemblant à des humains pourraient également évoquer un inconfort et un sentiment d'étrangeté.
Les facteurs qui ont influencé la confiance émotionnelle différaient de ceux qui ont influencé la confiance cognitive, et certains facteurs peuvent avoir eu des implications différentes pour chacun, concluent les auteurs.
En tant que guide pour intégrer l'IA dans le travail des organisations, les auteurs ont proposé un cadre. Ils ont examiné la forme sous laquelle l'IA a été utilisée, le niveau d'intelligence machine, comportements tels que la réactivité, et la fiabilité en tant que facteurs qui ont influencé la façon dont les gens ont développé la confiance dans l'IA, tant sur le plan cognitif qu'émotionnel.
« La confiance peut prédire le niveau de dépendance vis-à-vis de la technologie, tandis que le niveau de correspondance entre la confiance de quelqu'un et les capacités de la technologie, connu sous le nom d'étalonnage, peut influencer la façon dont la technologie est utilisée, " dit Ella Glikson, Professeur assistant à la Graduate School of Business Administration de l'Université Bar Ilan, qui a co-écrit l'étude.