Crédit :CC0 Domaine public
Au cours des deux années écoulées depuis que les fausses nouvelles sur Internet sont devenues une véritable crise, Facebook a pris de nombreuses mesures pour freiner le flux de désinformation sur son site. Sous une pression politique intense, il a fallu se battre :Au pic fin 2016, Les utilisateurs de Facebook ont partagé, aimé, ou commenté environ 200 millions de fausses histoires en un seul mois.
Maintenant, dans l'une des premières études du genre, L'économiste de Stanford, Matthew Gentzkow, met en lumière une question clé :les contre-mesures de Facebook font-elles une différence ?
On dirait qu'ils peuvent être, selon les conclusions détaillées dans un nouveau document de travail de Gentzkow et des co-auteurs Hunt Allcott et Chuan Yu.
De décembre 2016 à juillet 2018, Les interactions des utilisateurs de Facebook avec le contenu de sites signalés comme producteurs de fausses histoires ont chuté de 65%. Au cours de la même période, l'engagement avec ces mêmes histoires sur Twitter a augmenté, suggérant que la tendance ne reflétait pas simplement une baisse de l'intérêt pour de telles histoires ou une baisse de la production de ces sites. Et le moment de la baisse des engagements a coïncidé avec des changements de Facebook tels que la mise à jour de son algorithme de fil d'actualités, déplacer pour bloquer les publicités qui font la promotion de contenu trompeur, et la mise en place d'un programme de vérification des faits.
"Ces schémas suggèrent que les efforts de Facebook pour limiter la propagation de la désinformation parmi ses utilisateurs peuvent avoir un impact significatif, " dit Gentzkow, professeur d'économie et chercheur principal au Stanford Institute for Economic Policy Research (SIEPR).
L'étude de Gentzkow arrive à point nommé avec les élections de mi-mandat dans moins de deux mois. Le rôle qu'ont pu jouer les sites de fake news dans le vote de 2016 est au cœur d'une enquête fédérale, plusieurs nouvelles lois d'État et beaucoup de critiques publiques. Plus tôt ce mois-ci, des dirigeants de Facebook et Twitter ont témoigné devant le Congrès pour la troisième fois en moins d'un an dans le cadre de son enquête sur l'ingérence électorale de la Russie et d'autres groupes étrangers.
Bien qu'il n'y ait aucune preuve que des articles de presse fabriqués - des allégations, par exemple, que le pape avait soutenu Donald Trump à la présidence – a changé de vote en 2016, Gentzkow et Allcott ont précédemment découvert que de nombreuses personnes qui lisaient des articles trompeurs à l'approche des élections les croyaient.
Gentzkow prévient qu'il existe d'autres explications potentielles à la baisse du volume de fausses nouvelles sur Facebook jusqu'à la fin juillet, et qu'il est possible que les chiffres remontent à l'approche des élections de novembre.
Aussi, le volume de fausses nouvelles sur Facebook reste élevé. "Malgré la preuve que les efforts de Facebook peuvent fonctionner, " dit Gentzkow, "ses utilisateurs se sont engagés 70 millions de fois avec des sites de fausses informations en juillet. C'est un chiffre très important et cela me dit que Facebook continue de jouer un rôle important dans la propagation de la désinformation en ligne."
Le monde des fake news
Pour l'étude, Gentzkow et ses collaborateurs—Allcott de l'Université de New York et Yu, un doctorat de Stanford. candidat et ancien chercheur prédoctoral au SIEPR — a analysé 570 sites Web identifiés comme producteurs de fausses nouvelles sur les listes publiées par PolitiFact, Buzzfeed et autres. Ensuite, ils ont extrait les données de trafic de janvier 2015 à juillet 2018 et ont compté le nombre de fois où les utilisateurs de Facebook ont interagi avec du contenu trompeur, par exemple, en partageant ou en aimant une histoire.
Ils ont découvert que les interactions mensuelles avec les sites de fausses informations ont augmenté régulièrement sur Facebook pendant deux ans avant de culminer à 200 millions fin 2016 et de chuter à 70 millions cet été.
L'étude n'examine pas exactement ce que Facebook pourrait bien faire dans ses tentatives de lutter contre les fausses nouvelles. Mais Gentzkow dit qu'une série de changements d'algorithmes, tels que la mise en évidence des publications des amis et de la famille des utilisateurs plus que d'autres contenus publics, fonctionne peut-être.
Gentzkow hésite à tirer des conclusions définitives sur les données pour une raison. C'est possible, note-t-il, que d'autres facteurs indépendants de la volonté de Facebook ont contribué, voire entraîné, la baisse du volume de désinformation sur la plateforme. Par exemple, une fois les élections terminées, la demande de fausses nouvelles a peut-être diminué car les utilisateurs se sont désintéressés des histoires hautement partisanes. C'est possible, trop, que les données manquaient de nouvelles sources de fausses nouvelles, y compris les sites qui ont basculé vers un domaine différent.
Une comparaison surprenante avec Twitter
Une façon dont les chercheurs ont abordé les limites potentielles de l'étude était de suivre les partages des mêmes fausses histoires sur Twitter de décembre 2016 à juillet 2018. Si ni Facebook ni Twitter n'ont fait quoi que ce soit pour contrer la désinformation, alors les deux subiraient hypothétiquement des changements dans les interactions des utilisateurs avec les faux sites de nouvelles au même degré. De la même manière, si un créateur de fausses nouvelles changeait subitement son nom de domaine pour éviter d'être détecté, le trafic provenant du site d'origine diminuerait pour les deux plateformes de médias sociaux.
Étonnamment, les données ont montré que si Facebook et Twitter ont tous deux connu une augmentation des interactions des utilisateurs avec de fausses nouvelles avant les élections de 2016, leurs chiffres d'engagement ont fortement divergé au cours des 18 prochains mois. Le nombre d'engagements mensuels de fausses nouvelles de Facebook a diminué de 130 millions au cours des 18 prochains mois, tandis que Twitter a continué à augmenter.
Et lorsque les chercheurs ont revérifié des modèles potentiellement similaires dans l'engagement des utilisateurs avec d'autres nouvelles, sites d'affaires ou de culture sur les deux plateformes de médias sociaux, ils ont constaté que les interactions sont restées relativement stables au cours de la même période. Il n'y a pas eu de basculements dramatiques.
"Cela nous dit que quelque chose s'est passé sur Facebook pour ralentir la diffusion de la désinformation, " dit Gentzkow. " C'est une première étape nécessaire pour mieux comprendre le problème des fausses nouvelles en ligne et comment y mettre un terme. "
Ensuite, il dit, est une étude de suivi qui examine comment les utilisateurs interagissent avec les actualités sur Facebook et Twitter du milieu de l'été à la fin de l'année.