Les fausses nouvelles se répandent rapidement. Crédit :FGC/Shutterstock
Une théorie très médiatisée expliquant pourquoi les gens partagent de fausses nouvelles dit qu'ils n'y prêtent pas suffisamment d'attention. La solution proposée est donc de pousser les gens dans la bonne direction. Par exemple, Des « primes d'exactitude » (courts rappels destinés à attirer l'attention des gens sur l'exactitude du contenu d'actualités qu'ils rencontrent en ligne) peuvent être intégrés aux sites de médias sociaux.
Mais est-ce que ça marche ? Les primes de précision n'enseignent aux gens aucune nouvelle compétence pour les aider à déterminer si un message est réel ou faux. Et il pourrait y avoir d'autres raisons, au-delà d'un simple manque d'attention, qui amène les gens à partager de fausses nouvelles, telles que les motivations politiques. Notre nouvelle recherche, Publié dans Sciences psychologiques , suggère que les nombres premiers ne réduiront probablement pas beaucoup la désinformation, en isolement. Nos résultats offrent des informations importantes sur la meilleure façon de lutter contre les fausses nouvelles et la désinformation en ligne.
Le concept d'amorçage est un processus plus ou moins inconscient qui fonctionne en exposant les gens à un stimulus (comme demander aux gens de penser à l'argent), ce qui a ensuite un impact sur leurs réponses aux stimuli ultérieurs (tels que leur volonté de soutenir le capitalisme de marché libre). Au cours des années, l'incapacité à reproduire de nombreux types d'effets d'amorçage a conduit le lauréat du prix Nobel Daniel Kahneman à conclure que « l'amorçage est maintenant l'illustration des doutes sur l'intégrité de la recherche psychologique ».
L'idée de l'utiliser pour contrer le partage d'informations erronées sur les réseaux sociaux est donc un bon cas test pour en savoir plus sur la robustesse de la recherche d'amorçage.
Le Center for Open Science nous a demandé de reproduire les résultats d'une étude récente pour contrer la désinformation sur le COVID-19. Dans cette étude, On a montré à deux groupes de participants 15 vrais et 15 faux titres sur le coronavirus et leur a demandé d'évaluer leur probabilité de partager chaque titre sur les réseaux sociaux sur une échelle de un à six.
Avant cette tâche, la moitié des participants (le groupe de traitement) ont vu un titre sans rapport, et a demandé d'indiquer s'ils pensaient que ce titre était exact (le premier). Par rapport au groupe témoin (qui n'a pas montré un tel premier), le groupe de traitement avait un « discernement de la vérité » significativement plus élevé, défini comme la volonté de partager de vrais gros titres plutôt que de faux. Cela indiquait que le premier fonctionnait.
Pour maximiser les chances d'une réplication réussie, nous avons collaboré avec les auteurs sur l'étude originale. Nous avons d'abord collecté un échantillon suffisamment grand pour reproduire les résultats de l'étude originale. Si nous n'avons pas trouvé d'effet significatif dans ce premier cycle de collecte de données, nous avons dû collecter une autre série de données et les mettre en commun avec la première série.
Notre premier test de réplication a échoué, sans effet de l'exactitude prime sur les intentions de partage de nouvelles ultérieures. Ceci est conforme aux résultats de réplication d'autres recherches sur l'amorçage.
Pour l'ensemble de données regroupé, qui se composait de près de 1, 600 participants, nous avons trouvé un effet significatif de l'exactitude prime sur les intentions de partage de nouvelles ultérieures. Mais c'était à environ 50% de l'effet d'intervention de l'étude originale. Cela signifie que si nous choisissons une personne au hasard dans le groupe de traitement, la probabilité qu'ils aient amélioré leurs décisions de partage d'informations par rapport à une personne du groupe témoin est d'environ 54 % – à peine au-dessus du hasard. Cela indique que l'effet global des décalages de précision peut être faible, cohérent avec les résultats précédents sur l'amorçage. Bien sûr, s'il est appliqué à des millions de personnes sur les réseaux sociaux, cet effet pourrait encore être significatif.
Nous avons également trouvé des indications selon lesquelles le premier pourrait mieux fonctionner pour les démocrates américains que pour les républicains, ces derniers semblant à peine bénéficier de l'intervention. Il peut y avoir diverses raisons à cela. Compte tenu de la nature hautement politisée du COVID-19, les motivations politiques peuvent avoir un effet important. Le conservatisme est associé à une confiance moindre dans les médias grand public, ce qui peut conduire certains républicains à évaluer les médias crédibles comme « biaisés ».
Les effets d'amorçage sont également connus pour disparaître rapidement, généralement après quelques secondes. Nous avons cherché à savoir si c'était également le cas pour les nombres premiers de précision en examinant si l'effet du traitement se produisait de manière disproportionnée dans les premiers titres présentés aux participants à l'étude. Il semble que l'effet du traitement n'était plus présent après que les participants ont évalué une poignée de titres, ce qui ne prendrait pas plus de quelques secondes à la plupart des gens.
Voies à suivre
Alors, quelle est la meilleure façon d'avancer ? Notre propre travail s'est concentré sur l'exploitation d'une branche différente de la psychologie, known as "inoculation theory". This involves pre-emptively warning people of an impending attack on their beliefs and refuting the persuasive argument (or exposing the manipulation techniques) avant they encounter the misinformation. This process specifically helps confer psychological resistance against future attempts to mislead people with fake news, an approach also known as "prebunking."
In our research, we show that inoculating people against the manipulation techniques commonly used by fake news producers indeed makes people less susceptible to misinformation on social media, and less likely to report to share it. These inoculations can come in the form of free online games, of which we've so far designed three:Bad News, Harmony Square and Go Viral!. In collaboration with Google Jigsaw, we also designed a series of short videos about common manipulation techniques, which can be run as ads on social media platforms.
Other researchers have replicated these ideas with a related approach known as "boosting". This involves strengthening people's resilience to micro-targeting—ads that target people based on aspects of their personality—by getting them to reflect on their own personality first.
Additional tools include fact-checking and debunking, algorithmic solutions that downrank unreliable content and more political measures such as efforts to reduce polarization in society. Finalement, these tools and interventions can create a multi-layered defense system against misinformation. In short:the fight against misinformation is going to need more than a nudge.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.