Photo Illustration des applications de médias sociaux. Crédit :Alyssa Stone/Université Northeastern
Il existe un large soutien bipartite parmi les libéraux et les conservateurs auto-identifiés que les sociétés de médias sociaux devraient ajouter des étiquettes d'avertissement aux messages contenant des informations trompeuses, ou pouvant conduire à la diffusion de fausses informations, les données d'une nouvelle étude menée par des chercheurs de Northeastern au College of Arts, Salons des médias et du design.
Une grande partie des sondages sur l'étiquetage du contenu a été menée autour de l'élection présidentielle américaine. Mais les résultats de l'enquête nationale, publié mercredi, peut parler de nouvelles préoccupations concernant la désinformation pendant la pandémie de COVID-19, entourant notamment l'utilisation des vaccins et autres protocoles de santé, dit John Wihbey, professeur agrégé de journalisme et d'innovation médiatique à Northeastern et co-auteur de l'étude.
"Nous sommes dans un nouveau moment, dans une nouvelle phase de la pandémie - un moment où nous pouvons avoir une idée un peu plus pure de ce que le public pense de ces problèmes, " dit Wihbey.
Au cours des dernières années, les sociétés de médias sociaux telles que Twitter et Facebook ont commencé à étiqueter des millions de messages comme de la désinformation, dont certains de l'ancien président Donald Trump, qui a été définitivement suspendu des plates-formes à la suite de l'attaque du 6 janvier contre le bâtiment du Capitole des États-Unis qui a été perpétrée par ses partisans.
Les allégations de Trump concernant la fraude électorale généralisée lors de l'élection présidentielle de l'année dernière, qui ont été démystifiés, et l'insurrection qui a suivi a déclenché un débat acharné sur la responsabilité des entreprises technologiques dans la surveillance des types d'informations que les utilisateurs peuvent partager, y compris la limitation ou la suppression des soi-disant fausses nouvelles, discours de haine, et le contenu autrement considéré comme problématique.
Au cours de l'été, l'équipe de chercheurs du Nord-Est a interrogé plus de 1, 400 personnes aux États-Unis via une plateforme d'enquête académique, appelé Prolifique. La moitié des participants ont déclaré utiliser Twitter occasionnellement ou plus fréquemment, et 68 % ont déclaré qu'ils utilisaient Facebook occasionnellement ou plus fréquemment.
L'enquête a été publiée conjointement avec le Northeastern's Ethics Institute dans le cadre d'un effort plus large examinant les nouvelles approches potentielles de l'étiquetage de contenu sur les plateformes de médias sociaux. Les co-auteurs de l'étude sont Garrett Morrow, un doctorant en sciences politiques; Myojung Chung, professeur adjoint de journalisme et de plaidoyer médiatique; et Mike Peacey, professeur agrégé d'économie.
L'étude a révélé que 92,1% des libéraux, 60,1% de conservateurs, et 78,4 % des modérés sont « tout à fait ou plutôt d'accord » sur le fait que les plateformes de médias sociaux devraient utiliser des étiquettes pour informer les utilisateurs des publications contenant des informations trompeuses. Ces étiquettes ont été utilisées pour identifier la désinformation, telles que les étiquettes de « vérification des faits » de Twitter, et avertir les utilisateurs des publications potentiellement graphiques ou nuisibles, tels que les avertissements médiatiques sensibles de la plateforme.
Les participants ont également déclaré qu'ils rencontraient un « contenu problématique » – des informations trompeuses ou incorrectes et des discours de haine – souvent lors de l'utilisation des plateformes sociales. Les chercheurs n'essaient pas de définir la désinformation ou le contenu problématique de l'étude, Wihbey dit, en choisissant plutôt de se fier aux perceptions des participants quant à ces problèmes pour répondre aux questions de l'enquête.
Les chercheurs notent également que les participants ont montré un degré élevé de « biais de confiance excessive, " ce qui signifie qu'ils ont dit qu'ils faisaient confiance à leurs propres capacités à discerner les déclarations trompeuses et la désinformation en ligne, mais a exprimé sa méfiance dans la capacité des autres à faire de même.
L'accord bipartite significatif sur l'étiquetage était légèrement surprenant, Wihbey dit, étant donné la polarisation de la question de la modération des contenus dans les jours qui ont suivi les élections. De nombreux conservateurs se sont opposés à l'interdiction de Trump - et à l'interdiction en général - en disant que cela équivalait à de la censure.
Mais l'étude a également confirmé certaines de ces divergences d'opinion partisanes sur la meilleure façon d'aborder la modération de contenu, avec 63,2 % des conservateurs affirmant que l'étiquetage des messages de Trump, au lieu de l'interdire, était suffisant pour faire face à ses "messages violants". C'est comparé aux plus de 80% de libéraux qui pensaient qu'une action plus sévère était nécessaire.
L'étude intervient alors que les gouvernements tentent d'exercer un contrôle sur les politiques de modération des géants de la technologie. Rien que cette semaine, Le gouverneur du Texas Greg Abbott, un républicain, a signé un projet de loi exigeant que les sociétés de médias sociaux divulguent leurs politiques de modération de contenu et créent un processus d'appel pour les utilisateurs interdits. En vertu de la nouvelle loi, les utilisateurs pourraient poursuivre les entreprises pour obtenir le rétablissement de leurs comptes. La Floride a approuvé une loi similaire plus tôt cette année.
Les démocrates ont également tenté d'influencer les politiques des entreprises. Au cours de l'été, Le président Joe Biden a exhorté Facebook à prendre des mesures plus rapides contre les publications qui diffusent de la désinformation sur COVID-19, disant que les mauvaises informations circulant sur la plate-forme sur la sécurité et l'efficacité des vaccins "tuaient des gens".
"Il y a un énorme besoin d'essayer de comprendre quels outils et méthodes nous devons utiliser pour lutter contre la désinformation et la désinformation, " Wihbey dit, résumant le sentiment de l'enquête. "À la fois, Je pense que les gens ne croient pas que la fermeture des comptes et la désactivation des boutons de partage soient la [seule] voie à suivre."
Wihbey dit que l'étude peut indiquer que le public arrive à une sorte de terrain d'entente.
« Nous constatons que les gens veulent que les étiquettes les relient à des sources crédibles pour vérifier, les préparer à une réflexion critique sur la désinformation, et ralentir la propagation de la désinformation en avertissant les gens du contenu qu'ils essaient de partager, " déclarent ses auteurs.