Facebook veut améliorer la confiance. Crédit :Shutterstock
Facebook aurait commencé à donner aux utilisateurs un score de fiabilité secret dans sa tentative de lutter contre les fausses nouvelles. Selon le Washington Post, le score est en partie basé sur la capacité des utilisateurs à signaler et à signaler correctement des informations inexactes sur le site. Facebook prend ensuite ce score en compte lorsqu'il détermine comment le contenu d'un utilisateur doit être diffusé sur le réseau (bien qu'il ne dise pas aux utilisateurs quel est leur score).
Pourquoi Facebook a-t-il commencé à faire cela ? Suite à des événements tels que le rôle supposé de la désinformation sur les réseaux sociaux lors des élections américaines de 2016 via et la campagne du Brexit, Facebook est de plus en plus sous pression pour freiner la propagation des fausses nouvelles. Mais la plate-forme est maintenant confrontée à la possibilité que la prise de conscience croissante des informations trompeuses et fausses ait augmenté la probabilité que les utilisateurs signalent des articles comme "faux" simplement parce qu'ils ne sont pas d'accord avec eux.
Nous pouvons utiliser la psychologie pour expliquer pourquoi cela pourrait se produire. Et cela suggère que le score de fiabilité est une bonne idée. Mais je dirais que Facebook devrait aller plus loin et donner à chaque utilisateur un score de réputation personnelle plus complet qu'il peut consulter pour déterminer la qualité et la portée de son contenu.
En psychologie, nous appelons la tendance à chercher la confirmation, et minimiser ou rejeter les informations remettant en cause nos propres croyances « biais de confirmation ». Des recherches sur des personnes aux États-Unis et en Allemagne ont montré (conformément à d'autres études) que les gens ont tendance à passer plus de temps à lire des informations cohérentes avec leurs attitudes existantes qu'à des histoires mettant en évidence une position différente. La même étude montre également que la lecture d'actualités qui soutient vos opinions les renforce, tandis que la lecture d'histoires qui montrent un décalage avec vos attitudes les affaiblit.
En général, les gens n'aiment pas faire face à des situations dans lesquelles leurs croyances sont remises en question. Cela donne lieu au sentiment inconfortable de dissonance cognitive, le sentiment de tenir deux positions opposées à la fois. Pour éviter cela, les gens se donnent beaucoup de mal pour prouver que leurs croyances originales sont justes. Lorsqu'ils sont exposés à des faits qui contredisent nos opinions, notre choix est soit de reconsidérer notre position, soit de contester les nouvelles informations. Et attaquer la crédibilité de l'information ou de sa source peut souvent faire l'affaire.
Par exemple, des recherches menées par des collègues et moi-même ont montré comment les personnes qui nient l'existence du changement climatique – ou la nécessité d'agir – se donnent beaucoup de mal pour nier la valeur des arguments présentés. Ces stratégies consistent à nier et à contester les preuves scientifiques, mais aussi à affirmer que les scientifiques qui les produisent, et ceux qui tentent de résoudre le problème, sont malhonnêtes et ont des arrière-pensées.
Seul Facebook peut actuellement voir les scores des utilisateurs. Crédit :Shutterstock
Il n'est donc pas surprenant que la vaste couverture médiatique de la question des fausses nouvelles (dont la recherche suggère qu'elle était en fait exagérée par rapport aux élections américaines de 2016) ait pu encourager les utilisateurs de Facebook à signaler comme de faux articles qui rendent la lecture inconfortable. Et cela crée un problème.
L'idée d'un score de fiabilité secret utilisé mystérieusement par Facebook pourrait dissuader les gens de signaler le contenu. Mais un score accessible au public peut être considéré comme un moyen de punir les personnes qui ont signalé un contenu « incorrectement » en les humiliant publiquement. Une alternative serait de permettre aux utilisateurs de voir leurs propres scores de réputation personnels en fonction de ce qu'ils partagent ainsi que de ce qu'ils signalent, mais pas les rendre accessibles au public.
Utiliser les scores pour changer notre comportement
Bien que nous ayons des biais dans notre façon de penser, la plupart d'entre nous veulent se sentir utiles et précieux. Des études ont maintenant montré comment les gens utilisent les médias sociaux comme une sorte de laboratoire d'identité, construire une image particulière d'eux-mêmes qu'ils présentent au monde. Nos propres recherches montrent comment l'utilisation de Facebook est associée à notre besoin de sentir que nous appartenons à une communauté et que nous sommes des individus dignes et capables. Dans un sens, l'introduction de scores de réputation auxquels les utilisateurs peuvent accéder répondrait à ce besoin, tout en veillant également à ce que les gens ne se sentent pas découragés de signaler du contenu de peur d'être profilés et pointés du doigt par la plateforme.
Nous savons déjà à quel point l'authenticité et la confiance sont importantes en ligne. Les gens se fient aux scores de réputation en ligne pour décider où aller, quoi acheter et quoi faire en ligne. Ainsi, un score de réputation personnelle basé sur la qualité et la fiabilité des sources d'informations que nous partageons en ligne (et pas seulement sur le contenu que nous signalons comme faux) pourrait être un outil utile pour nous aider à repérer de vraies fausses nouvelles. Donner des commentaires sur l'exactitude du contenu partagé ou signalé pourrait nous aider à comprendre ce en quoi nous pouvons avoir confiance et ce que nous devrions signaler, indépendamment de nos opinions plus larges.
Le défi, bien sûr, serait de savoir comment calculer ce score de réputation. Mais étant donné la quantité de données que Facebook collecte sur ses utilisateurs, et sur le contenu partagé, ce ne serait peut-être pas trop difficile.
Cet article a été initialement publié sur The Conversation. Lire l'article original.