Crédit :CC0 Domaine public
Les conseils d'experts en intelligence artificielle (IA) peuvent être tout aussi influents que ceux d'experts humains, selon une équipe de chercheurs de Penn State. Cependant, les porteurs humains et robotiques de mauvaises nouvelles peuvent constater qu'ils perdent de l'influence lorsque leurs opinions négatives vont à l'encontre d'une foule positive.
Dans une étude, les chercheurs ont découvert que les machines qui génèrent des recommandations - ou les experts en IA - étaient aussi influentes que les experts humains lorsque les experts en IA ont recommandé quelle photo un utilisateur devrait ajouter à son profil d'entreprise en ligne. Cependant, les experts en IA et humains n'ont pas réussi à changer d'opinion si leurs commentaires étaient négatifs et allaient à l'encontre de l'opinion populaire parmi les autres utilisateurs, dit S. Shyam Sundar, James P. Jimirro Professeur de Media Effects au Donald P. Bellisario College of Communications et co-directeur du Media Effects Research Laboratory.
Sundar, qui est également affilié à l'Institute for Computational and Data Sciences (ICDS) de Penn State, a déclaré que les résultats peuvent montrer qu'il y a des moments où l'opinion de la foule - également appelée effet d'entraînement - peut l'emporter sur les opinions des experts, qu'ils soient IA ou humains. Il a ajouté que les experts utilisant l'IA et les humains avec une évaluation positive d'une photo de profil d'entreprise étaient en mesure d'influencer la propre évaluation des utilisateurs de la photo. Cependant, si les experts n'aimaient pas la photo et que la foule en offrait une évaluation positive, l'influence des experts diminua.
Parce que les gens utilisent de plus en plus les médias sociaux pour rechercher des commentaires, les indices qui suggèrent des opinions d'experts et l'effet d'entraînement peuvent être des facteurs importants pour influencer les décisions, selon Jinping Wang, doctorant en communication de masse et premier auteur de l'étude.
"De nos jours, nous nous tournons souvent vers des plateformes en ligne pour obtenir les opinions d'autres personnes, comme nos pairs et experts, avant de prendre une décision, " a dit Wang. " Par exemple, nous pouvons nous tourner vers ces sources lorsque nous voulons savoir quels films regarder, ou quelles photos télécharger sur les plateformes de médias sociaux."
Les experts en IA sont souvent moins chers que les experts humains et ils peuvent aussi travailler 24h/24, lequel, Wang suggère, pourraient les rendre attrayantes pour les entreprises en ligne.
Les chercheurs ont également découvert que le statut de groupe de l'IA - dans ce cas, l'origine nationale a été désignée—ne semble pas avoir d'incidence sur l'acceptation par une personne de sa recommandation. Chez les experts humains, cependant, un expert d'une origine nationale similaire qui a offert une évaluation négative d'une photographie avait tendance à avoir plus d'influence qu'un expert humain d'un pays inconnu qui a offert une évaluation négative similaire d'une photographie.
Bien que les résultats suggérant le statut du groupe puissent ne pas affecter la valeur qu'une personne accorde au jugement des experts en IA sonne comme une bonne nouvelle, Sundar suggère que les mêmes préjugés culturels pourraient toujours être à l'œuvre chez l'expert en IA, mais ils pourraient être cachés dans les données de programmation et d'apprentissage.
"Cela peut être à la fois bon et mauvais, car tout dépend de ce que vous nourrissez l'IA, " a déclaré Sundar. " Bien qu'il soit bon d'avoir confiance en la capacité de l'IA à transcender les préjugés culturels, nous devons garder à l'esprit que si vous entraînez l'IA sur des images d'une culture, ils pourraient donner des recommandations trompeuses sur les images destinées à être utilisées dans d'autres contextes culturels."
Les chercheurs, qui rapportent leurs conclusions dans un prochain numéro de Les ordinateurs dans le comportement humain , a recruté 353 personnes via un service de crowdsourcing en ligne pour participer à l'étude. Les participants ont été sélectionnés au hasard pour visualiser une capture d'écran d'un site Web proposant aux utilisateurs des recommandations pour les photos de leur profil d'entreprise. Les participants ont également été informés que le site Web permettait les commentaires d'autres utilisateurs de la plate-forme, en plus des évaluateurs experts. Les captures d'écran représentaient les différentes conditions étudiées par les chercheurs, y compris si les évaluateurs experts étaient humains ou IA, si leurs commentaires étaient positifs ou négatifs et si la source de l'évaluateur provenait d'un domaine similaire, identité nationale différente ou inconnue.
À l'avenir, les chercheurs prévoient d'étudier plus en profondeur la dynamique d'influence de groupe et d'examiner si le sexe de l'expert joue un rôle dans l'influence de l'opinion.