• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Les utilisateurs bannis des plateformes sociales vont ailleurs avec une toxicité accrue

    Diagramme de réseau social. Crédit :Daniel Ténérife/Wikipédia

    Les utilisateurs bannis des plateformes sociales vont ailleurs avec une toxicité accrue, selon une nouvelle étude mettant en vedette des chercheurs de l'Université de Binghamton, Université d'État de New York.

    Quand les gens agissent comme des imbéciles sur les réseaux sociaux, une réponse permanente est de leur interdire de poster à nouveau. Enlevez le mégaphone numérique, la théorie va, et les messages blessants ou malhonnêtes de ces fauteurs de troubles ne poseront plus de problème là-bas.

    Que se passe-t-il après cela, bien que? Où vont ceux qui ont été « déformés », et comment cela affecte-t-il leur comportement à l'avenir?

    Une équipe internationale de chercheurs, dont le professeur adjoint Jeremy Blackburn et le Ph.D. La candidate Esraa Aldreabi du Thomas J. Watson College of Engineering and Applied Science's Department of Computer Science explore ces questions dans une nouvelle étude intitulée "Comprendre l'effet de la déplate-forme sur les réseaux sociaux".

    Les recherches menées par les collaborateurs d'iDRAMA Lab à l'Université de Binghamton, Université de Boston, University College London et le Max Planck Institute for Informatics en Allemagne a été présenté en juin à la Conférence ACM Web Science 2021 .

    Les chercheurs ont développé une méthode pour identifier les comptes appartenant à la même personne sur différentes plateformes et ont découvert que l'interdiction sur Reddit ou Twitter a conduit ces utilisateurs à rejoindre des plateformes alternatives telles que Gab ou Parler où la modération du contenu est plus laxiste.

    Parmi les résultats, il y a également que, bien que les utilisateurs qui passent à ces plates-formes plus petites aient une audience potentiellement réduite, ils présentent un niveau d'activité et de toxicité plus élevé qu'auparavant.

    "Vous ne pouvez pas simplement bannir ces gens et dire, 'Hey, ça a marché.' Ils ne disparaissent pas, " Blackburn a dit. " Ils partent dans d'autres endroits. Cela a un effet positif sur la plate-forme d'origine, mais il y a aussi un certain degré d'amplification ou d'aggravation de ce type de comportement ailleurs."

    L'étude déplateforme a collecté 29 millions de messages de Gab, qui a été lancé en 2016 et compte actuellement environ 4 millions d'utilisateurs. Gab est connu pour sa base d'extrême droite de néo-nazis, nationalistes blancs, antisémites et théoriciens du complot QAnon.

    En utilisant une combinaison d'apprentissage automatique et d'étiquetage humain, les chercheurs ont croisé les noms de profil et le contenu avec des utilisateurs qui avaient été actifs sur Twitter et Reddit mais qui ont été suspendus. Beaucoup de ceux qui sont déplateformes réutilisent le même nom de profil ou les mêmes informations d'utilisateur sur une plate-forme différente pour assurer la continuité et la reconnaissance avec leurs abonnés.

    "Juste parce que deux personnes ont le même nom ou nom d'utilisateur, ce n'est pas une garantie, " Blackburn a déclaré. " Il y avait un assez gros processus de création d'un ensemble de données de 'vérité sur le terrain', où nous avions un mot à dire humain, "Ce doivent être les mêmes personnes à cause de cette raison et de cette raison." Cela nous permet de faire évoluer les choses en les jetant dans un classificateur d'apprentissage automatique [programme] qui apprendra les caractéristiques à surveiller."

    Le processus n'était pas différent de la façon dont les chercheurs déterminent l'identité des auteurs pour les œuvres non attribuées ou pseudonymes, vérifier le style, syntaxe et matière, il ajouta.

    Dans l'ensemble de données analysé pour cette étude, environ 59 % des utilisateurs de Twitter (1, 152 sur 1, 961) ont créé des comptes Gab après leur dernière activité sur Twitter, vraisemblablement après la suspension de leur compte. Pour Reddit, environ 76% (3, 958 sur 5, 216) des utilisateurs suspendus ont créé des comptes Gab après leur dernier message sur Reddit.

    Comparer le contenu des mêmes utilisateurs sur Twitter et Reddit par rapport à Gab, les utilisateurs ont tendance à devenir plus toxiques lorsqu'ils sont suspendus d'une plate-forme et sont obligés de passer à une autre plate-forme. Ils deviennent également plus actifs, augmenter la fréquence des messages.

    À la fois, l'audience du contenu des utilisateurs de Gab est réduite par la taille réduite de la plateforme par rapport aux millions d'utilisateurs sur Twitter et Reddit. Cela peut être considéré comme une bonne chose, mais Blackburn a averti qu'une grande partie de la planification de l'attaque du 6 janvier contre le Capitole des États-Unis avait eu lieu sur Parler, une plate-forme similaire à Gab avec une base d'utilisateurs plus petite qui penche vers l'alt-right et l'extrême droite.

    "Réduire la portée est probablement une bonne chose, mais la portée peut être facilement mal interprétée. Juste parce que quelqu'un en a 100, 000 abonnés ne signifie pas qu'ils sont tous abonnés dans le monde réel, " il a dit.

    « Le groupe hardcore, peut-être le groupe qui nous préoccupe le plus, sont ceux qui restent probablement avec quelqu'un s'il déménage ailleurs en ligne. Si en réduisant cette portée, vous augmentez l'intensité à laquelle sont exposées les personnes qui restent, c'est comme une question de type qualité versus quantité. Est-ce pire d'avoir plus de gens qui voient ce genre de choses ? Ou est-ce pire d'avoir des choses plus extrêmes produites pour moins de gens ?"

    Une étude distincte, "Un grand ensemble de données ouvertes du réseau social Parler, " a également inclus Blackburn parmi les chercheurs de l'Université de New York, l'Université de l'Illinois, Collège universitaire de Londres, Université de Boston et Institut Max Planck.

    Présenté à la conférence AAAI sur le Web et les médias sociaux le mois dernier, il a analysé 183 millions de posts Parler effectués par 4 millions d'utilisateurs entre août 2018 et janvier 2021, ainsi que les métadonnées de 13,25 millions de profils d'utilisateurs. Les données confirment que les utilisateurs de Parler – qui ont brièvement fermé et ont été retirés des magasins d'applications Apple et Google en réponse à l'émeute du Capitole – ont massivement soutenu le président Donald Trump et son programme « Make America Great Again ».

    "Peu importe ce que Parler a pu dire, publiquement ou non, c'était très clairement blanc, Aile droite, Les partisans chrétiens de Trump, " dit Blackburn. " Encore une fois, sans surprise, il a obtenu son plus gros coup de pouce dès les élections de 2020 – jusqu'à un million d'utilisateurs s'y sont joints. Puis autour de l'attaque du Capitole, il y avait une autre grosse bosse chez les utilisateurs. Ce que nous pouvons voir, c'est qu'il était très clairement utilisé comme outil d'organisation de l'insurrection."

    Donc, si interdire des utilisateurs n'est pas la bonne réponse, quel est? Administrateurs Reddit, par exemple, avoir une capacité de "shadow-banning" qui permet aux utilisateurs gênants de penser qu'ils publient toujours sur le site, sauf que personne d'autre ne peut les voir. Lors des élections de 2020 et de la pandémie de COVID-19, Twitter a ajouté des étiquettes de modération de contenu aux tweets qui diffusent délibérément de la désinformation.

    Blackburn n'est pas sûr de tous les outils de modération disponibles sur les plateformes de médias sociaux, mais il pense qu'il doit y avoir plus de "solutions socio-techniques aux problèmes socio-techniques" plutôt qu'une simple interdiction pure et simple.

    "La société dit maintenant assez fermement que nous ne pouvons pas ignorer ce genre de choses - nous ne pouvons plus utiliser les solutions faciles, " a-t-il dit. " Nous devons trouver des idées plus créatives pour ne pas nous débarrasser des gens, mais, espérons-le, poussez-les dans une direction positive ou au moins assurez-vous que tout le monde sache qui est cette personne. Quelque part entre un accès sans entrave et l'interdiction de tout le monde est probablement la bonne solution."


    © Science https://fr.scienceaq.com