• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> Autres
    Les gens font davantage confiance aux informations qui les poussent à être politiquement plus extrémistes, selon une étude
    Crédit :Pixabay/CC0 Domaine public

    Non seulement les gens pensent que les informations politiques ont plus de chances d'être vraies si elles renforcent leurs préjugés idéologiques, mais ils auront également tendance à faire davantage confiance aux informations si elles les conduisent à adopter des croyances plus extrêmes (et même incorrectes), selon une nouvelle étude réalisée par un chercheur de l'UCL. /P>

    L'étude, publiée dans American Economic Journal :Microéconomie , a constaté que lorsque les gens recevaient de nouvelles informations sur des sujets politiquement sensibles, les individus des deux côtés du spectre politique avaient du mal à détecter si les informations étaient vraies ou non, et étaient biaisés en faveur des informations qui correspondaient à leurs convictions politiques.

    De plus, l'étude a également révélé que lorsqu'on leur donnait des informations qui pouvaient être vraisemblablement vraies ou fausses, les gens faisaient confiance à des informations qui les poussaient à être encore plus extrémistes qu'ils ne l'étaient déjà, ce qui pourrait conduire à une plus grande polarisation politique.

    L'auteur de l'étude, le Dr Michael Thaler (UCL Economics), a déclaré :« Dans les situations où les gens ne savent pas avec certitude si une nouvelle est vraie ou non, ils décident souvent de sa véracité en se basant sur leur souhait qu'elle soit vraie plutôt que sur leur réalité. par un biais appelé raisonnement motivé. Dans le contexte des convictions politiques, le raisonnement motivé conduit les gens à être en désaccord non seulement sur les politiques ou l'interprétation, mais aussi sur les faits fondamentaux du monde. "

    Pour tester dans quelle mesure les convictions politiques des gens affectaient leur perception de la véracité des informations, le Dr Thaler a conçu une expérience pour tester la manière dont les gens interprétaient les nouvelles informations en fonction de la manière dont ils répondaient à une série de questions factuelles. Il a recruté un échantillon en ligne de 1 300 personnes aux États-Unis représentant diverses convictions politiques.

    Il leur a posé une série de questions avec des réponses numériques sur l'actualité, comme « De quel pourcentage le taux de meurtres a-t-il augmenté ou diminué pendant la présidence d'Obama ? » Ces types de questions ont été choisis parce que l'on s'attend à ce que les réponses des gens reflètent leurs convictions politiques profondes. Pour la question ci-dessus, ceux qui ont des convictions pro-républicaines ont tendance à dire qu'il y a eu une augmentation du taux de meurtres, tandis que ceux qui ont des convictions pro-démocrates disent le contraire.

    Après avoir répondu, le Dr Thaler a ensuite présenté aux participants une nouvelle « information » liée à la question qui pouvait être vraie ou fausse. Les informations présentées étaient très simples, indiquant uniquement si leurs réponses numériques initiales étaient trop élevées ou trop faibles. Ensuite, il a ensuite demandé aux participants de prédire si la nouvelle information qui leur avait été donnée était vraie ou fausse.

    Après avoir effectué le test, le Dr Thaler a non seulement constaté que les démocrates et les républicains n'étaient pas d'accord sur les réponses à ces questions, mais que les gens étaient neuf points de pourcentage plus susceptibles de dire que les nouvelles étaient vraies si elles rendaient leurs réponses plus extrêmes politiquement que leur réponse initiale. , même si cette nouvelle était moins susceptible d'être vraie. Dans l'exemple ci-dessus, les démocrates étaient plus susceptibles de faire trop confiance aux informations qui les ont poussés à sous-estimer davantage le taux de meurtres après la présidence d'Obama, tandis que les républicains avaient tendance à faire trop confiance aux informations qui les ont amenés à le surestimer davantage.

    Le Dr Thaler a déclaré :« Les participants faisaient davantage confiance aux « fausses nouvelles » qui renforçaient et exacerbaient leurs préjugés qu'aux « vraies nouvelles » qui les rapprochaient de la bonne réponse, même s'ils étaient incités financièrement à trouver la bonne réponse. Cette tendance montre que les gens sont enclins à adopter des positions encore plus extrêmes et polarisées s’ils en ont l’opportunité. »

    Les résultats suggèrent que lorsque la véracité des informations est ambiguë, les gens considèrent que les fausses nouvelles peu familières sont plus susceptibles d’être vraies si ce qu’ils lisent correspond à leurs convictions politiques préexistantes. De plus, lorsqu’ils évaluent cette ambiguïté, ils sont plus susceptibles d’évoluer vers des positions plus extrêmes qui correspondent à leurs convictions politiques.

    Le Dr Thaler a découvert qu’un large éventail de sujets politiquement sensibles ont motivé ce raisonnement motivé, notamment l’immigration, la mobilité des revenus, la criminalité, la discrimination raciale, le genre, le changement climatique et les lois sur les armes à feu. Il a également constaté que ces effets étaient vrais sur tous les critères démographiques, notamment le sexe, l'âge, l'éducation et l'appartenance religieuse.

    Le Dr Thaler a déclaré :« L'une des découvertes les plus surprenantes de mon étude est que non seulement les gens sont plus enclins à croire les fausses informations qu'ils veulent croire, mais qu'ils ont également tendance à vouloir aller encore plus loin. le centre, mais si vous leur donnez la flexibilité d'interpréter les informations comme étant « vraies » ou « fausses », ils ont tendance à aller encore plus loin vers les extrêmes. »

    Plus d'informations : Michael Thaler, L'effet des fausses nouvelles : identification expérimentale du raisonnement motivé en utilisant la confiance dans les informations, American Economic Journal :Microéconomie (2024). DOI : 10.1257/mic.20220146

    Fourni par l'University College London




    © Science https://fr.scienceaq.com