• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Les économistes ont une méthode pour réduire les fausses informations sur les réseaux sociaux

    Pour limiter la désinformation, certains réseaux sociaux ont limité le nombre de publications que les utilisateurs peuvent partager. Crédit :Gerd Altmann via Pixabay

    Le contrôle de la propagation de la désinformation sur les plateformes de médias sociaux a suscité d'importantes conversations sur la censure et la liberté d'expression.

    "Une hypothèse tacite a été que la censure, la vérification des faits et l'éducation sont les seuls outils pour lutter contre la désinformation", déclare David McAdams, économiste à l'Université Duke. Dans une nouvelle recherche publiée dans la revue Proceedings of the National Academy of Sciences , McAdams et ses collaborateurs explorent des moyens d'améliorer la qualité des informations partagées sur les réseaux sans rendre aucune entité responsable de contrôler le contenu et de décider ce qui est vrai et faux.

    Le modèle suggère que pour réduire la propagation de fausses informations, le réseau peut fixer des limites sur la largeur de partage de certains messages, et le faire d'une manière qui n'est pas trop restrictive pour les utilisateurs.

    "Nous montrons que les plafonds sur le nombre de fois que les messages peuvent être transférés (profondeur du réseau) ou le nombre d'autres personnes à qui les messages peuvent être transférés (étendue du réseau) augmentent le nombre relatif de vrais par rapport aux faux messages circulant dans un réseau, indépendamment du fait que les messages sont accidentellement ou délibérément déformés », déclare McAdams.

    "Par exemple, Twitter pourrait limiter l'étendue du partage sur son site en limitant le nombre de personnes qui voient un retweet donné dans leurs flux Twitter", dit-il.

    Facebook et WhatsApp, deux applications appartenant à la société mère Meta qui permettent aux utilisateurs de s'envoyer des messages, ont utilisé des méthodes similaires au modèle des chercheurs pour limiter la propagation de la désinformation.

    En 2020, Facebook a annoncé des limites sur le nombre de personnes ou de groupes auxquels les utilisateurs pouvaient transférer des messages, le plafonnant à cinq, en partie pour lutter contre la désinformation sur le COVID-19 et le vote. Plus tôt cette année-là, WhatsApp a introduit des limites similaires, interdisant à ses plus de deux milliards d'utilisateurs de transférer des messages à plus de cinq personnes à la fois, en partie à cause de plus d'une douzaine de décès que des responsables publics en Inde ont liés à de fausses informations qui se propageaient sur l'application, ont noté les chercheurs.

    Cette approche n'élimine pas la désinformation, mais en l'absence d'autres méthodes, elle peut réduire la gravité du problème jusqu'à ce que d'autres solutions puissent être développées pour s'attaquer au cœur du problème, déclare McAdams.

    "Lorsque la désinformation se propage à travers un réseau social, cela peut causer des dommages", déclare McAdams, qui occupe des postes de professeur au département d'économie et à la Fuqua School of Business. "Certaines personnes pourraient commencer à croire des choses qui sont fausses et qui peuvent leur nuire ou nuire à d'autres."

    Cela peut également amener certaines personnes à perdre confiance dans la plate-forme, ce qui signifie qu'elles peuvent être moins susceptibles de croire ou d'agir sur des informations correctes qui pourraient réellement les aider ou aider d'autres personnes, dit-il.

    "Si vous limitez le partage, vous pourriez également limiter la diffusion de bonnes informations, vous pourriez donc jeter le bébé avec l'eau du bain et cela ne vous aide pas vraiment", prévient McAdams. "Notre analyse explore comment trouver cet équilibre." + Explorer plus loin

    WhatsApp resserre les limites de partage pour lutter contre la désinformation sur les virus




    © Science https://fr.scienceaq.com