• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Du clickbait à la transparence :réinventer le monde en ligne

    Crédit :CC0 Domaine public

    Polarisation, théories du complot, fausses nouvelles :ce que les gens voient sur Internet est en grande partie déterminé par les algorithmes opaques de quelques entreprises. C'est une évolution inquiétante pour les sociétés démocratiques. Mais les environnements en ligne pourraient être conçus de manière à promouvoir l'autonomie et la transparence, favorisant ainsi le potentiel positif d'Internet. Une équipe de chercheurs de l'Institut Max Planck pour le développement humain à Berlin, l'Université de Bristol, et la Harvard Law School a abordé ce débat du point de vue des sciences du comportement et a proposé des interventions capables de promouvoir un Internet plus démocratique. Leurs conclusions ont été publiées dans Nature Comportement Humain .

    Vous faites défiler votre YouTube, Facebook, ou un fil Twitter lors de l'apparition d'une vidéo :un reportage sur des accords politiques secrets, complots médiatiques, ou de fausses études scientifiques. Tout semble s'appuyer sur des faits. La vidéo compte des centaines de milliers de clics et semble gagner du terrain dans le monde entier. Et beaucoup de téléspectateurs semblent d'accord avec cela, après lui avoir donné un « pouce levé ». Mais qu'est-ce que tout cela signifie exactement ? Cela rend-il la vidéo crédible ? Combien de téléspectateurs ont regardé la vidéo jusqu'à la fin ; combien sont restés à mi-chemin ? Et pourquoi la vidéo est-elle apparue dans votre flux en premier lieu ? La plateforme en ligne connaît de nombreuses réponses, mais il ne partage pas cette information. Et aucun autre indice n'est fourni qui pourrait vous aider à évaluer le contenu, qualité, ou la crédibilité de la vidéo.

    Selon le Reuters Institute Digital News Report 2019, plus de la moitié (55 %) des internautes dans le monde utilisent désormais les réseaux sociaux ou les moteurs de recherche pour se tenir au courant de l'actualité. En d'autres termes, l'opinion publique est largement façonnée par le contenu en ligne, qui est à son tour organisé par des algorithmes. « L'objectif est de garder les utilisateurs heureux le plus longtemps possible afin qu'ils restent sur la plate-forme. Cela est réalisé en offrant du divertissement et en créant un sentiment de bien-être, ce qui explique probablement pourquoi de nombreuses plates-formes n'ont pas de boutons « Je n'aime pas » qui permettre aux utilisateurs de voter contre le contenu. Le sentiment véhiculé est le suivant :vous avez raison. Cela peut être inoffensif lorsque nous partageons du contenu privé tel que des photos de vacances, mais cela déforme l'image quand ce sont des opinions radicales et des contrevérités qui se répandent, " déclare le co-auteur Stephan Lewandowsky, Professeur de psychologie cognitive à l'Université de Bristol.

    Un autre problème est que les algorithmes de flux d'actualités affichent uniquement le contenu des utilisateurs basé sur leur comportement en ligne précédent, avec lequel ils sont susceptibles d'être d'accord. D'autres points de vue ont tendance à ne pas être montrés du tout. Cela crée des réseaux d'utilisateurs partageant les mêmes idées, qui renforcent les opinions partagées et créent l'illusion d'un large soutien, même si une opinion n'est en fait pas largement partagée. Mais comment les utilisateurs peuvent-ils distinguer les fausses nouvelles des faits ? Et comment les environnements en ligne doivent-ils être conçus pour soutenir ces efforts ? « Les interventions que nous proposons visent à donner aux utilisateurs individuels les moyens de prendre des décisions éclairées et autonomes dans des environnements en ligne, idéalement, sans avoir recours à des vérificateurs de faits indépendants. L'architecture des environnements en ligne influence le comportement des utilisateurs. Pour changer cet environnement pour le mieux, nous devons comprendre le comportement humain et prendre ce comportement en compte dans les choix de conception, " dit Philipp Lorenz-Spreen, auteur principal de l'étude et chercheur à l'Institut Max Planck pour le développement humain.

    L'équipe de recherche a identifié un certain nombre de façons d'aider les utilisateurs à évaluer la qualité du contenu Internet et à comprendre les mécanismes derrière les algorithmes, sans restreindre les libertés essentielles à la philosophie originale d'Internet. Ces possibilités sont technologiquement réalisables mais jusqu'à présent largement inexploitées. L'équipe de recherche a élaboré des recommandations spécifiques pour responsabiliser les individus en ligne, s'appuyant sur deux approches issues des sciences du comportement :le nudge et le boosting.

    Le nudging vise à orienter le comportement des personnes en mettant en évidence des informations importantes sans imposer de règles ou d'interdictions. Boosting vise à améliorer la compétence décisionnelle des personnes, leur permettant de naviguer dans les situations de manière autonome et de prendre de meilleures décisions. Selon les chercheurs, il est important d'adopter une approche à plusieurs volets pour atteindre le plus de personnes possible. Le nudging pourrait être utilisé, par exemple, pour indiquer si le contenu répond à certains critères de qualité, par exemple s'il provient de sources dignes de confiance. Cela inciterait à la fois les utilisateurs à vérifier le contenu de manière approfondie et à créer une structure d'incitation pour les producteurs de contenu à répondre aux critères requis. L'inclusion d'hyperliens vers des sources vérifiées serait une autre étape. Wikipédia pourrait ici servir de modèle :les références et les références croisées qu'il fournit aident à contextualiser les informations présentées. Twitter a récemment fait un pas dans cette direction et a commencé à signaler certains tweets avec un avertissement de vérification des faits, y compris un tweet de Donald Trump sur le sujet du vote par correspondance.

    Les nudges pourraient également communiquer des informations supplémentaires sur le comportement en ligne d'autres utilisateurs, donner plus de contexte sur la façon dont les autres évaluent le contenu. Par exemple, le nombre de likes pourra être paramétré par rapport au nombre total de lecteurs :"4, 287 sur 1,5 million de lecteurs ont aimé cet article. 000 clics sur un article, mais que seulement 3, 000 utilisateurs l'ont lu jusqu'à la fin pourrait être un meilleur indicateur de qualité que le nombre de clics et de likes seuls. Il a été démontré que des formats numériques transparents peuvent améliorer les décisions médicales. Pourquoi n'en serait-il pas de même pour Internet ? Cette approche pourrait empêcher la formation de chambres d'écho dans lesquelles des groupes de personnes croient à tort que leur opinion est répandue et acceptée.

    Une autre possibilité pourrait être de rendre légèrement plus difficile pour les utilisateurs le partage d'informations lorsqu'un article ne cite pas de références externes. Par exemple, les utilisateurs peuvent être amenés à cliquer devant une fenêtre contextuelle contenant un avertissement indiquant que des références sont manquantes. Un autre type de coup de pouce peut cibler la manière dont le contenu est organisé dans les navigateurs, c'est-à-dire la façon dont un fil d'actualité trie le contenu. Différencier clairement les types de contenus, comme des avis, nouvelles, ou des messages d'amis, peut rendre les fils d'actualité plus transparents.

    Booster, en revanche, vise à améliorer la compétence des utilisateurs sur le long terme. Cela pourrait, par exemple, signifie permettre aux gens d'ajuster la façon dont leurs fils d'actualité sont triés, en leur permettant de modifier leurs paramètres pour refléter les facteurs les plus importants pour eux et le contenu qu'ils souhaitent voir en premier. Les réseaux sociaux pourraient être obligés d'indiquer pourquoi certains contenus sont plus pondérés et affichés en premier, tandis que d'autres contenus sont moins prioritaires. Un autre exemple de boost serait de présenter la source d'origine d'une information et le chemin par lequel elle a atteint un utilisateur. Des arbres de décision simples pourraient guider les utilisateurs à travers un processus étape par étape de vérification de l'origine, le contexte, et la qualité du contenu en ligne. En d'autres termes, les utilisateurs auraient les outils nécessaires pour devenir eux-mêmes des vérificateurs de faits. À long terme, ils apprendraient à reconnaître les modèles, évaluer de manière critique le contenu, et d'identifier plus rapidement les manipulations.

    « La nature interactive des médias sociaux pourrait être exploitée pour promouvoir un dialogue démocratique diversifié et favoriser l'intelligence collective. Notre objectif est de trouver des moyens de renforcer le potentiel d'Internet pour éclairer les processus de prise de décision dans les sociétés démocratiques, les renforcer plutôt que de les miner. Des problèmes mondiaux comme le changement climatique et la pandémie de coronavirus nécessitent une coordination, solutions collectives. Et cela rend un monde en ligne démocratiquement interconnecté crucial, " dit Ralph Hertwig, Directeur du Center for Adaptive Rationality à l'Institut Max Planck pour le développement humain.


    © Science https://fr.scienceaq.com