• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> Autres
    Réduire la méfiance à l’égard des médias sociaux n’est pas simple, préviennent les informaticiens

    Confiance et méfiance à l'égard des médias sociaux coexistaient chez les participants à l'étude. Crédit :Emmaline Nelsen

    Les interventions anti-désinformation sur les réseaux sociaux fonctionnent-elles comme prévu ? Cela dépend, selon une nouvelle étude menée par les chercheurs de William &Mary et publiée dans les Actes de la conférence CHI sur les facteurs humains dans les systèmes informatiques (CHI '24).



    Leur étude a interrogé plus de 1 700 participants aux États-Unis, révélant que les fonctionnalités anti-désinformation sensibilisent davantage les utilisateurs à la désinformation dans les médias sociaux ; mais ne les a pas rendus plus susceptibles de partager des informations sur les réseaux sociaux, ni plus disposés à recevoir des informations des plateformes. La confiance et la méfiance coexistaient chez les participants, apparaissant comme des caractéristiques distinctes et non simplement comme les extrémités opposées d'un spectre.

    « Les dynamiques de confiance et de méfiance sont l'épine dorsale de la société », a déclaré Yixuan (Janice) Zhang, professeur adjoint au département d'informatique William &Mary. L'étude a défini et mesuré ces concepts, fournissant une enquête validée pour une utilisation future.

    Zhang a été l'auteur principal aux côtés de Yimeng (Yvonne) Wang, titulaire d'un doctorat W&M. étudiant en informatique; le groupe d'auteurs comprenait également des chercheurs d'universités de trois pays, tous contribuant au domaine multidisciplinaire de l'interaction homme-machine.

    "HCI a beaucoup à voir avec l'informatique équitable, car nous avons affaire à des sujets humains", a déclaré Zhang. Son expertise HCI s'aligne sur la position de William &Mary dans l'évolution des arts libéraux et des sciences, exprimée avec justesse par l'école proposée en informatique, science des données et physique.

    L'étude s'est concentrée sur Facebook, X (anciennement Twitter), YouTube et TikTok en tant que sources d'actualités et d'informations couramment utilisées, ciblant expressément la période de janvier 2017 à janvier 2023 comme coïncidant avec la montée de grandes campagnes de désinformation.

    Au cours de la période examinée, ces plateformes ont toutes mis en œuvre des stratégies anti-désinformation telles que l'étiquetage des fausses informations, la conservation de contenus crédibles et la création de liens vers des sources supplémentaires. Des exemples de ces interventions ont été présentés aux participants à l'étude qui s'étaient récemment engagés avec les plateformes.

    Ensuite, les répondants ont été invités à exprimer leur niveau d'accord avec huit énoncés, qui mesuraient quatre facettes de la confiance et quatre facettes de la méfiance.

    Par exemple, les déclarations utilisant la dimension de confiance de la « compétence » sondaient la confiance des utilisateurs dans la capacité des plateformes à lutter contre la désinformation; les déclarations utilisant la dimension de méfiance de la « malveillance » évaluaient la croyance des utilisateurs dans la prétendue diffusion de fausses informations par les plateformes. D'autres facettes de la confiance comprenaient la bienveillance, la fiabilité et l'assurance; la méfiance impliquait le scepticisme, la malhonnêteté et la peur.

    De plus, l'étude a étudié comment les interventions spécifiques de lutte contre la désinformation étaient liées à la confiance et à la méfiance des utilisateurs à l'égard des médias sociaux et comment leur expérience avec ces fonctionnalités influençait leurs attitudes et leurs comportements.

    Une analyse des résultats a mis en évidence un groupe de répondants ayant une confiance élevée et une méfiance élevée, indiquant potentiellement que les utilisateurs faisaient preuve de discernement dans les aspects spécifiques des plateformes qu'ils approuvaient. En outre, ce phénomène suggère un écart entre la perception des participants d'une plateforme donnée et leurs expériences d'interaction. Cela signifie que les utilisateurs, par exemple, peuvent faire confiance à d'autres utilisateurs pour partager des informations fiables tout en étant sceptiques quant à la capacité de la plateforme à lutter contre la désinformation.

    Les chercheurs ont également observé que les perceptions de confiance et de méfiance variaient selon les plateformes et étaient influencées par des facteurs démographiques. Selon eux, ces résultats pourraient être utiles aux décideurs politiques et aux régulateurs pour adapter les interventions aux cultures et aux contextes spécifiques des utilisateurs.

    En tant que chercheur HCI, Zhang croit en l’informatique centrée sur l’humain et en la collaboration entre diverses disciplines. En plus de concevoir et de mettre en œuvre des technologies informatiques, au cours de son doctorat. programme, elle s'est familiarisée avec les théories de l'éducation et des sciences sociales.

    Les intérêts de Wang résident également dans l’interaction entre les humains et les ordinateurs. Elle étudie actuellement l'utilisation de la technologie pour répondre aux problèmes de santé mentale et créer des plateformes fiables permettant aux utilisateurs d'améliorer leur bien-être mental.

    "Alors que nous nous concentrons sur les êtres humains, nous voulons vraiment savoir si notre travail peut les aider", a-t-elle déclaré.

    Plus d'informations : Yixuan Zhang et al, Profiling the Dynamics of Trust &Distrust in Social Media :A Survey Study, Actes de la conférence CHI sur les facteurs humains dans les systèmes informatiques (2024). DOI :10.1145/3613904.3642927

    Fourni par William et Mary




    © Science https://fr.scienceaq.com