• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les médias sociaux peuvent apprendre à réguler la parole à partir des jeux en ligne, selon une étude

    Crédit :domaine public CC0

    Alors que les géants des médias sociaux comme Facebook et Twitter sont de plus en plus critiqués pour leur approche du type de discours autorisé sur leurs plateformes, un autre type de groupe en ligne a navigué dans des luttes similaires il y a plus de dix ans, selon deux universitaires de l'Université du Kansas qui ont écrit un nouvel article proposant que les plateformes sociales modélisent leurs approches sur la régulation de la parole en se basant sur les leçons de la communauté des joueurs.

    Harrison Rosenthal, doctorant en journalisme et communication de masse, et Genelle Belmas, professeur agrégé de journalisme et communication de masse, sont co-auteurs d'un article retraçant l'évolution du jeu vers les médias sociaux et recommandant à ces derniers d'adopter des approches de modération similaires aux premières. Il a été publié dans la revue Jurimetrics , la revue officielle de droit et de technologie de l'American Bar Association.

    Les auteurs soulignent que les médias sociaux ont évolué à partir des jeux comme des lieux où les gens pouvaient communiquer, et bien qu'il n'y ait pas de gameplay explicite impliqué, ces sites sont en fait un jeu à part entière, avec des personnes recherchant des likes, des retweets ou d'autres engagements. Le monde du jeu a fini par développer une approche communautaire dans laquelle les utilisateurs définissent les normes et contrôlent ce qui est acceptable, mais les médias sociaux sont toujours aux prises avec des approches descendantes dans lesquelles les dirigeants décident de ce qui est autorisé.

    "Au fil du temps, le monde du jeu s'est transformé, passant de personnes se souciant principalement des règles et des résultats du jeu à davantage sur le fait d'être en ligne et d'interagir avec les gens. Notre argument est que dans les médias sociaux, votre représentation, que vous le vouliez ou non, est un avatar", a déclaré Rosenthal, un avocat qui a reçu son juris doctor de KU. "La parole est réglementée dans de nombreux contextes, mais la façon dont elle est réglementée est extrêmement mal comprise. Les gens viennent sur les réseaux sociaux avec une incompréhension fondamentale de leurs droits."

    Belmas, un joueur passionné, partage un tel exemple réussi d'autorégulation communautaire dans lequel un ami a été qualifié de "sentinelle" dans un jeu en ligne. En tant que joueur de confiance et membre de la communauté, la sentinelle n'était pas un responsable d'une société de jeux, mais était autorisée à intervenir lorsque d'autres joueurs devenaient abusifs.

    "Il était habilité à retirer les gens du jeu et à leur parler de la façon dont ils jouaient et traitaient les autres joueurs", a déclaré Belmas à propos de la sentinelle. "Il était habilité à prendre des décisions réglementaires, et ce système dans lequel les sentinelles, ou d'autres qui ont des guildes ou des utilisateurs qui prennent des décisions ascendantes, fonctionnent bien, et les médias sociaux pourraient bénéficier de la même approche."

    Rosenthal et Belmas soulignent que certaines parties d'Internet ont déjà adopté l'approche avec succès. Wikipédia et Reddit sont deux exemples qui permettent aux utilisateurs de confiance qui ont obtenu une "certification" sur la qualité et la quantité de leurs publications, modifications et corrections d'avoir le privilège de réglementer ce qui est autorisé sur la plateforme. Cette approche fonctionnerait mieux que des PDG comme Mark Zuckerberg de Facebook ou Jack Dorsey de Twitter mettant en œuvre leurs propres politiques pour plusieurs raisons, affirment les auteurs.

    Premièrement, personne ne pourrait anticiper toutes les controverses potentielles pouvant survenir sur une plate-forme donnée. Les auteurs donnent deux exemples de Facebook, dans lesquels sa politique de ne pas autoriser la nudité s'est retournée contre lui. La célèbre photo "Napalm Girl" de la guerre du Vietnam dans laquelle une jeune fille nue est photographiée en train de fuir une attaque au napalm, et le mouvement "Brelfie", dans lequel des mères allaitantes partageaient des photos d'elles-mêmes en train d'allaiter, ont d'abord été jugés interdits sur Facebook. Mais, après les critiques, les deux décisions ont finalement été annulées. En matière de jeu, il est facile de réguler quand les règles sont fixées comme celle du jeu de société Monopoly ou du basket. Mais s'il y avait soudainement 10 paniers ou 200 propriétés disponibles, de nouveaux problèmes d'arbitrage surgiraient. C'est le cas des médias sociaux, ont déclaré les chercheurs.

    De même, les auteurs ont fait valoir qu'une approche ascendante fonctionnerait mieux en raison des économies d'échelle et des différences culturelles. Les entreprises de médias sociaux emploient des milliers de personnes pour examiner les publications potentiellement problématiques et décider si elles sont autorisées. Alors que bon nombre de ces examinateurs sont situés en dehors des États-Unis, les dirigeants et les avocats des médias sociaux sont en grande partie basés dans la Silicon Valley, de sorte que les malentendus sur ce qui est acceptable dans une culture et pas dans une autre sont inévitables. Les utilisateurs sont mieux placés pour comprendre ce qui est acceptable et ce qui est haineux, discriminatoire ou problématique dans leurs propres cultures, ont déclaré Rosenthal et Belmas. De plus, les utilisateurs n'ont pas d'incitation financière.

    "Les entreprises de médias sociaux capituleront toujours si cela sert leur résultat net", a déclaré Belmas. "La question est de savoir dans quelle mesure la parole cède la place à l'argent, et la réponse est toujours, à moins que vous n'utilisiez le modèle dans lequel les utilisateurs ont le pouvoir."

    Les auteurs soulignent également comment la parole est naturellement réglementée dans diverses professions. En droit et en médecine, pour donner deux exemples, les professionnels peuvent perdre leur licence ou faire face à une discipline pour un discours préjudiciable au domaine. Ainsi, diverses communautés de médias sociaux pourraient déterminer ce qui est autorisé pour leur propre communauté, qu'il s'agisse d'une communauté de professionnels, de joueurs, d'amateurs, de personnes de certains points de vue politiques ou d'autres groupements de personnes ayant des intérêts ou des relations similaires.

    La critique de l'approche actuelle des médias sociaux est presque omniprésente et les législateurs de tous les horizons politiques ont appelé à des changements. Rosenthal et Belmas ont déclaré qu'au lieu de permettre au gouvernement de dicter la politique de discours en ligne, les médias sociaux seraient bien servis pour permettre aux utilisateurs de confiance et à la communauté de réglementer le discours qu'ils toléreront. Les jeux en ligne ont connu des difficultés similaires dans le passé et ont développé un moyen efficace de gérer les discours problématiques.

    "Que cela nous plaise ou non, les entreprises de médias sociaux deviennent plus puissantes et la volonté politique est que quelque chose doit être fait", a déclaré Belmas. "L'une des meilleures approches que nous puissions voir est une approche ascendante générée par les utilisateurs. Dans un tel modèle, les entreprises de médias sociaux n'abandonnent pas le pouvoir. Elles le redistribuent."

    "Il est dans l'intérêt économique des entreprises de le faire, d'une part, cela peut aider à empêcher des incidents comme 'Napalm Girl' ou 'Brelfies' d'exploser", a déclaré Rosenthal. "Cela fonctionnerait mieux si le tampon était le peuple."

    © Science https://fr.scienceaq.com