L’axe des ordonnées indique la part des étiquettes humaines pour les vidéos qui réfutent les affirmations de Trump (en bleu), celles qui rendent compte des affirmations de Trump de manière neutre (vert) et celles qui approuvent les affirmations de Trump (rouge). L'axe des x indique la valeur θ pour le sujet #108. Le nombre total de vidéos entrant dans chaque catégorie est indiqué par l'histogramme en haut du graphique. Source :Journal of Online Trust and Safety (2022). https://doi.org/10.54501/jots.v1i3.60
YouTube était plus susceptible de recommander des vidéos sur la fraude électorale aux utilisateurs qui étaient déjà sceptiques quant à la légitimité de l'élection présidentielle américaine de 2020, montre une nouvelle étude examinant l'impact des algorithmes du site.
Les résultats de la recherche, publiés dans le Journal of Online Trust and Safety , a montré que les plus sceptiques quant à la légitimité de l'élection ont vu trois fois plus de vidéos liées à la fraude électorale que les participants les moins sceptiques - environ 8 recommandations supplémentaires sur environ 400 vidéos suggérées à chaque participant à l'étude.
Alors que la prévalence globale de ces types de vidéos était faible, les résultats exposent les conséquences d'un système de recommandation qui fournit aux utilisateurs le contenu qu'ils souhaitent. Pour ceux qui sont le plus préoccupés par une éventuelle fraude électorale, leur montrer du contenu connexe a fourni un mécanisme par lequel la désinformation, la désinformation et les complots peuvent trouver leur chemin vers ceux qui sont les plus susceptibles de les croire, observent les auteurs de l'étude. Il est important de noter que ces modèles reflètent l'influence indépendante de l'algorithme sur ce que les vrais utilisateurs voient lorsqu'ils utilisent la plate-forme.
"Nos résultats révèlent les conséquences néfastes des algorithmes de recommandation et mettent en doute l'idée que les environnements d'information en ligne sont uniquement déterminés par le choix de l'utilisateur", déclare James Bisbee, qui a dirigé l'étude en tant que chercheur postdoctoral au Center for Social Media and Politics de l'Université de New York. (CSMaP).
Près de deux ans après l'élection présidentielle de 2020, un grand nombre d'Américains, en particulier républicains, ne croient pas à la légitimité du résultat.
"Environ 70 % des républicains ne considèrent pas Biden comme le vainqueur légitime", malgré "de multiples recomptages et audits qui ont confirmé la victoire de Joe Biden", a écrit PolitiFact du Poynter Institute plus tôt cette année.
Bien qu'il soit bien connu que les plateformes de médias sociaux, telles que YouTube, dirigent le contenu vers les utilisateurs en fonction de leurs préférences de recherche, les conséquences de cette dynamique peuvent ne pas être pleinement réalisées.
Dans l'étude CSMaP, les chercheurs ont échantillonné plus de 300 Américains avec des comptes YouTube en novembre et décembre 2020. On a demandé aux sujets dans quelle mesure ils étaient préoccupés par un certain nombre d'aspects de la fraude électorale, notamment le comptage des bulletins de vote frauduleux, le rejet des bulletins de vote valides, les gouvernements étrangers interfèrent et les citoyens non américains votent, entre autres questions.
Ces participants ont ensuite été invités à installer une extension de navigateur qui enregistrerait la liste des recommandations qui leur étaient présentées. Les sujets ont ensuite été invités à cliquer sur une vidéo YouTube attribuée au hasard (la vidéo "seed"), puis à cliquer sur l'une des recommandations qui leur ont été présentées selon une "règle de traversée" attribuée au hasard. Par exemple, les utilisateurs affectés à la "seconde règle de parcours" seraient tenus de toujours cliquer sur la deuxième vidéo dans la liste des recommandations affichées, quel que soit son contenu. By restricting user behavior in these ways, the researchers were able to isolate the recommendation algorithm's influence on what real users were being suggested in real time.
The subjects then proceeded through a sequence of YouTube recommended videos, allowing the researchers to observe what the YouTube algorithm suggested to its users. Bisbee and his colleagues then compared the number of videos about election fraud in the 2020 U.S. presidential election that were recommended to participants who were more skeptical about the legitimacy of the election to those recommended to participants who were less skeptical. These results showed that election skeptics were recommended an average of eight additional videos about possible fraud in the 2020 US election, relative to non-skeptical participants (12 vs. 4).
"Many believe that automated recommendation algorithms have little influence on online 'echo chambers' in which users only see content that reaffirms their preexisting views," observes Bisbee, now an assistant professor at Vanderbilt University.
"Our study, however, suggests that YouTube's recommendation algorithm was able to determine which users were more likely to be concerned about fraud in the 2020 U.S. presidential election and then suggested up to three times as many videos about election fraud to these users compared to those less concerned about election fraud. This highlights the need for further investigation into how opaque recommendation algorithms operate on an issue-by-issue basis." YouTube to remove misleading videos about the outcome of the U.S. presidential election