Que pensez-vous de Facebook ? Crédit :fyv6561/Shutterstock.com
L'algorithme du fil d'actualités de Facebook détermine ce que les utilisateurs voient sur sa plate-forme, des mèmes amusants aux commentaires d'amis. La société met régulièrement à jour cet algorithme, ce qui peut changer radicalement les informations que les gens consomment.
À l'approche des élections de 2020, le public craint beaucoup que ce qui a été qualifié d'« ingérence russe » lors de l'élection présidentielle de 2016 ne se reproduise. Mais ce qui n'attire pas assez l'attention, c'est le rôle que jouent les changements d'algorithme de Facebook, intentionnellement ou non, dans ce genre d'ingérence.
Un contrepoint clé à la campagne de désinformation russe était le journalisme factuel provenant de sources réputées, qui a atteint nombre de leurs lecteurs sur Facebook et d'autres plateformes de médias sociaux. En tant que chercheur et éducateur en médias sociaux, Je vois des preuves que les modifications apportées à l'algorithme du fil d'actualités de Facebook ont supprimé l'accès des utilisateurs à un journalisme crédible à l'approche de l'élection de Trump.
Les agents politiques savent que Facebook sert de gardien des régimes d'information de plus de 200 millions d'Américains et de 2 milliards d'utilisateurs dans le monde. Les actions et les abus commis par d'autres sur les plateformes ont suscité beaucoup d'inquiétudes et de débats publics, y compris sur la quantité de désinformation et de propagande que les Américains ont vues avant les élections. Ce dont on n'a pas assez parlé, c'est l'effet que les changements algorithmiques de Facebook ont eu sur l'accès à l'information et à la démocratie.
Changer le système
Mi-2015, Facebook a introduit un changement majeur d'algorithme qui a détourné les lecteurs du journalisme et de l'actualité, pour fournir plus de mises à jour de leurs amis et de leur famille. Le changement a été formulé dans un langage convivial suggérant que Facebook essayait de s'assurer que les utilisateurs ne manquent pas les histoires d'amis. Mais les données des médias sociaux montrent que l'un des effets du changement a été de réduire le nombre d'interactions des utilisateurs de Facebook avec des médias crédibles.
Quelques mois avant les élections de 2016, un changement d'algorithme encore plus important envers les messages des amis et de la famille a eu un deuxième impact sur le trafic des éditeurs. Un large éventail d'éditeurs de nouvelles ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.
Examiner les chiffres
Dans mes recherches, J'ai examiné l'engagement de Facebook pour les médias grand public autour des élections de 2016. Mes résultats corroborent les conclusions des autres selon lesquelles l'algorithme de Facebook a grandement supprimé l'engagement du public avec ces éditeurs.
Les données de CrowdTangle, une société de veille sur les réseaux sociaux, montre que le trafic Facebook a sensiblement baissé sur CNN, ABC, NBC, CBS, Fox News, Le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.
Cela prouve que l'algorithme a fonctionné comme il a été conçu pour fonctionner, mais je crains que les principaux éditeurs américains aient été supprimés de cette manière. L'intérêt des électeurs pour l'élection présidentielle a été plus élevé en 2016 qu'au cours des deux décennies précédentes, et la désinformation était endémique. Les changements de Facebook signifiaient que les principaux organes de presse de tout le spectre politique avaient plus de mal à faire connaître des informations et des reportages électorales crédibles.
Sonneries d'alarme
Facebook était au courant des inquiétudes concernant son algorithme avant même les élections. L'un des ingénieurs de Facebook a signalé ces effets potentiels des changements d'algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Zuckerberg, Roger McNamee, a également tenté d'alerter les dirigeants de Zuckerberg et de Facebook que la plate-forme était utilisée pour manipuler des informations sur l'élection.
Juste après les élections, Les recherches du journaliste Craig Silverman sur BuzzFeed ont montré que les fausses nouvelles électorales avaient surpassé les « vraies nouvelles ». Fin 2018, La propre déclaration de l'entreprise Facebook a révélé des problèmes avec la façon dont son algorithme récompensait le "contenu limite" qui était sensationnel et provocateur, comme une grande partie des nouvelles hyperpartisanes qui ont eu lieu avant les élections.
Des recherches plus récentes du Shorenstein Center de Harvard montrent que le trafic Facebook a continué de diminuer de manière significative pour les éditeurs après un nouveau changement d'algorithme Facebook en janvier 2018.
Le professeur Grygiel appelle à la transparence algorithmique sur MSNBC.
Transparence algorithmique
À ce jour, la recherche sur le fonctionnement de l'algorithme de Facebook a été limitée par le manque d'accès à son fonctionnement interne propriétaire. Il ne suffit pas d'étudier les effets des changements dans le fil d'actualité de Facebook. Je crois qu'il est important de comprendre pourquoi ils se sont produits, trop, et examiner plus directement les décisions commerciales de Facebook et leur impact sur la démocratie.
Un aperçu récent des processus internes de l'entreprise suggère que Facebook commence à comprendre son pouvoir. En juillet 2019, Bloomberg News a révélé que l'entreprise avait déployé un logiciel sur sa propre plate-forme pour rechercher des publications décrivant Facebook lui-même de manière potentiellement trompeuse, réduire leur visibilité pour préserver la réputation de l'entreprise.
Certains juristes internationaux ont commencé à réclamer des lois pour protéger les démocraties contre la possibilité qu'une manipulation algorithmique puisse générer des gains électoraux. Il n'y a aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n'est pas difficile d'imaginer que l'entreprise pourrait peaufiner ses algorithmes à l'avenir, s'il le voulait.
Pour se prémunir contre ce potentiel, de nouvelles lois pourraient empêcher des modifications de l'algorithme dans les périodes préparatoires avant les élections. Dans le secteur financier, par exemple, Les « périodes de calme » avant les grandes annonces d'entreprises visent à empêcher les efforts de marketing et de relations publiques d'influencer artificiellement les cours des actions.
Des protections similaires pour les algorithmes contre la manipulation des entreprises pourraient aider à garantir que les personnes politiquement actives, les dirigeants de Facebook en quête de pouvoir – ou toute autre entreprise ayant un contrôle important sur l'accès des utilisateurs à l'information – ne peuvent pas utiliser leurs systèmes pour façonner l'opinion publique ou le comportement de vote.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.