Apprendre comment les gens interagissent avec l'IA est une étape importante dans l'intégration bénéfique des machines dans la société. Crédit :Pixabay
Apprendre comment les gens interagissent avec des machines basées sur l'intelligence artificielle - et utiliser ces connaissances pour améliorer la confiance des gens dans l'IA - peut nous aider à vivre en harmonie avec le nombre toujours croissant de robots, chatbots et autres machines intelligentes parmi nous, selon un chercheur de Penn State.
Dans un article publié dans le numéro actuel du Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro Professeur d'effets médiatiques au Donald P. Bellisario College of Communications et co-directeur du Media Effects Research Laboratory, a proposé un moyen, ou cadre, étudier l'IA, qui peuvent aider les chercheurs à mieux étudier comment les gens interagissent avec l'intelligence artificielle, ou Interaction Homme-IA (HAII).
"Il s'agit d'une tentative d'examiner systématiquement toutes les façons dont l'intelligence artificielle pourrait influencer psychologiquement les utilisateurs, surtout en termes de confiance, " dit Sundar, qui est également affilié à l'Institute for Computational and Data Sciences (ICDS) de Penn State. "Avec un peu de chance, le modèle théorique avancé dans cet article donnera aux chercheurs un cadre, ainsi qu'un vocabulaire, pour étudier les effets psychologiques sociaux de l'IA."
Le framework identifie deux chemins (indices et actions) sur lesquels les développeurs d'IA peuvent se concentrer pour gagner la confiance et améliorer l'expérience utilisateur, dit Sundar. Les signaux sont des signaux qui peuvent déclencher une gamme de réponses mentales et émotionnelles de la part des gens.
"La route des repères est basée sur des indicateurs superficiels de l'apparence de l'IA ou de ce qu'elle fait apparemment, " il expliqua.
Sundar a ajouté qu'il existe plusieurs indices qui déterminent si les utilisateurs font confiance à l'IA. Les indices peuvent être aussi évidents que l'utilisation de caractéristiques humaines, comme un visage humain que certains robots ont, ou une voix humaine que les assistants virtuels comme Siri et Alexa utilisent.
D'autres indices peuvent être plus subtils, comme une déclaration sur l'interface expliquant le fonctionnement de l'appareil, comme lorsque Netflix explique pourquoi il recommande un certain film aux téléspectateurs.
Mais, chacun de ces indices peut déclencher des raccourcis mentaux ou des heuristiques distincts, selon Sundar.
"Lorsqu'une IA est identifiée à l'utilisateur comme une machine plutôt qu'un humain, comme cela arrive souvent dans les chatbots modernes, il déclenche l'heuristique machine, " ou un raccourci mental qui nous amène à appliquer automatiquement tous les stéréotypes que nous avons sur les machines, " a déclaré Sundar. " Nous pourrions penser que les machines sont exactes et précises, mais nous pourrions aussi penser que les ordinateurs et les machines sont froids et inflexibles. » Ces stéréotypes dictent à leur tour à quel point nous faisons confiance au système d'IA.
Sundar a suggéré que les systèmes de pilotage automatique dans les avions sont un exemple de la façon dont une confiance excessive dans l'IA peut avoir des répercussions négatives. Les pilotes peuvent avoir une confiance si implicite dans le système de pilotage automatique qu'ils relâchent leur garde et ne sont pas préparés à des changements soudains dans les performances de l'avion ou à des dysfonctionnements qui nécessiteraient leur intervention. Il cite ce type de « biais d'automatisation » comme une indication de notre profonde confiance dans les performances de la machine.
D'autre part, L'IA peut également déclencher des biais négatifs pour certaines personnes.
"Le contraire du biais d'automatisation serait l'aversion aux algorithmes, " dit Sundar. " Il y a des gens qui ont juste une aversion parce que, peut-être dans le passé, ils ont été brûlés par un algorithme et se méfient désormais profondément de l'IA. Ils ont probablement été dupés par des « deepfakes », qui sont des vidéos fabriquées à l'aide de la technologie de l'IA, ou ils ont reçu la mauvaise recommandation de produit d'un site de commerce électronique, ou ont senti que leur vie privée était envahie par l'IA fouillant dans leurs recherches et achats antérieurs. "
Sundar a conseillé aux développeurs de porter une attention particulière aux signaux qu'ils peuvent offrir aux utilisateurs.
"Si vous fournissez des indices clairs sur l'interface, vous pouvez aider à façonner la façon dont les utilisateurs réagissent, mais si vous ne fournissez pas de bons indices, vous laisserez l'expérience antérieure de l'utilisateur et les théories populaires, ou des notions naïves, sur les algorithmes à prendre en charge, " a déclaré Sundar.
En plus de fournir des indices, la capacité de l'IA à interagir avec les gens peut également façonner l'expérience utilisateur, selon Sundar. Il appelle cela la "voie d'action".
"Le parcours d'action est vraiment une question de collaboration, " a déclaré Sundar. " Les IA devraient réellement s'engager et travailler avec nous. La plupart des nouveaux outils d'IA - les haut-parleurs intelligents, les robots et les chatbots sont hautement interactifs. Dans ce cas, ce ne sont pas seulement des indices visibles sur leur apparence et ce qu'ils disent, mais sur la façon dont ils interagissent avec vous."
Dans les actions et les signaux, Sundar suggère aux développeurs de maintenir le bon équilibre. Par exemple, un signal qui n'indique pas de manière transparente à l'utilisateur que l'IA est à l'œuvre dans l'appareil peut déclencher des signaux négatifs, mais si la queue fournit trop de détails, les gens peuvent essayer de corrompre - ou "jeu" - l'interaction avec l'IA. « Ceiner la bonne quantité de transparence sur l'interface est donc assez important, " il a dit.
"Si votre enceinte connectée vous pose trop de questions, ou interagit trop avec vous, Cela pourrait être un problème, trop, " a déclaré Sundar. " Les gens veulent la collaboration. Mais ils veulent aussi minimiser leurs coûts. Si l'IA vous pose constamment des questions, alors tout l'intérêt de l'IA, à savoir la commodité, est parti."
Sundar a déclaré qu'il s'attend à ce que le cadre d'indices et d'actions guide les chercheurs alors qu'ils testent ces deux voies vers la confiance en l'IA. Cela générera des preuves pour expliquer comment les développeurs et les concepteurs créent des outils et des technologies basés sur l'IA pour les gens.
La technologie de l'IA évolue si rapidement que de nombreux critiques font pression pour interdire purement et simplement certaines applications. Sundar a déclaré que donner aux chercheurs le temps d'étudier et de comprendre de manière approfondie comment les humains interagissent avec la technologie est une étape nécessaire pour aider la société à tirer parti des avantages des appareils, tout en minimisant les éventuelles implications négatives.
"Nous ferons des erreurs, " a déclaré Sundar. " De la presse à imprimer à Internet, les nouvelles technologies des médias ont eu des conséquences négatives, mais ils ont également conduit à de nombreux autres avantages. Il ne fait aucun doute que certaines manifestations de l'IA vont nous frustrer, mais à un moment donné, nous devrons coexister avec l'IA et les faire entrer dans nos vies."