• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Ce que le big data révèle sur l'extrémisme en ligne

    Homa Hosseinmardi, Ph.D. Crédit :Université de Pennsylvanie

    Alors que les groupes extrémistes et les mouvements marginaux comme QAnon ont gagné en notoriété, leur capacité à proliférer rapidement la désinformation et les complots a placé les plateformes de médias sociaux sous un examen public accru. Facebook, Twitter et d'autres entreprises technologiques ont été réprimandés par le Congrès et les médias pour ne pas avoir sérieusement abordé la radicalisation en ligne parmi leurs utilisateurs. Alors que les États-Unis sont de plus en plus polarisés politiquement, la question de savoir si les algorithmes de ces plateformes - involontairement ou à dessein - aident les utilisateurs à découvrir des contenus extrêmes et trompeurs est devenue plus urgente.

    Mais comme le souligne Homa Hosseinmardi, Ph.D., une plateforme majeure a étonnamment moins retenu l'attention :YouTube. Hosseinmardi, chercheur principal et chercheur principal du projet PennMap avec le laboratoire Computational Social Science (CSS) de l'Université de Pennsylvanie, qui fait partie de la School for Engineering and Applied Sciences, de la Annenberg School for Communication et de la Wharton School, note que même s'il est souvent perçue comme une chaîne de divertissement plutôt qu'une source d'informations, YouTube est peut-être la plus grande plate-forme de consommation de médias au monde.

    "YouTube a été négligé par les chercheurs, car nous ne pensions pas que c'était un lieu d'information", a-t-elle déclaré. "Mais si vous regardez l'échelle, il compte plus de deux milliards d'utilisateurs. Si vous prenez cette population et que vous la multipliez par la fraction de contenu d'actualité regardé sur YouTube, vous vous rendez compte que la quantité d'informations consommées sur YouTube est bien plus importante que sur YouTube. Gazouillement."

    Les recherches de Hosseinmardi sont motivées par des questions sur le comportement humain, en particulier dans les espaces en ligne. Son doctorat. la recherche portait sur le harcèlement et l'intimidation en ligne, en particulier sur Instagram et Askfm, un réseau social semi-anonyme. Avant de rejoindre Penn, elle était assistante de recherche postdoctorale à l'Institut des sciences de l'information de l'Université de Californie du Sud, où elle a étudié la personnalité, la performance au travail et la santé mentale dans des environnements de travail en utilisant les signaux physiologiques des employés tels que les battements cardiaques et la respiration.

    En 2019, elle rejoint le CSSLab, dirigé par le professeur Duncan Watts de l'Université Stevens. Dans son travail avec le Lab, Hosseinmardi utilise des données à grande échelle et des méthodes de calcul pour mieux comprendre des problèmes tels que la polarisation des médias, les biais algorithmiques et la manière dont les réseaux sociaux affectent nos vies.

    Il y a plusieurs années, une équipe de chercheurs comprenant Hosseinmardi et Watts s'est intéressée à la relation entre la radicalisation en ligne et la consommation d'informations sur YouTube. Dans quelle mesure les algorithmes de YouTube favorisent-ils l'engagement avec des contenus fortement biaisés ou radicaux, et dans quelle mesure cela est-il influencé par le comportement en ligne d'un individu ?

    "Nous avons tous entendu des anecdotes sur la radicalisation de YouTube :une personne a regardé une vidéo et s'est retrouvée sur une théorie du complot", déclare Hosseinmardi. "Nous avons réalisé que le grand public percevait cela comme la preuve d'un problème systématique avec l'algorithme."

    Son objectif est de répondre à cette question :si les internautes partent de quelque part sur YouTube, après avoir regardé plusieurs vidéos consécutivement, finiront-ils par se retrouver dans la même destination ?

    L'équipe a testé cette enquête en étudiant les comportements de navigation individuels, sur YouTube et sur le Web, de plus de 300 000 Américains de janvier 2016 à décembre 2019. Ils ont également obtenu des données démographiques sur les utilisateurs, notamment l'âge, le sexe, la race, l'éducation, la profession, le revenu, et l'orientation politique, garantissant un échantillon représentatif de la population américaine.

    En août, ils ont publié leurs résultats dans Proceedings of the National Academy of Sciences , constatant que la sagesse conventionnelle n'est pas toujours juste.

    Les chercheurs n'ont observé aucune preuve que l'engagement de contenu d'extrême droite et "anti-réveil" soit systématiquement causé par les recommandations de YouTube. Au contraire, cela reflète en grande partie les préférences des utilisateurs et l'écosystème de contenu en ligne plus large. Les consommateurs de contenu d'extrême droite arrivent par diverses voies, telles que les moteurs de recherche, d'autres sites et les vidéos visionnées précédemment.

    Pourtant, le fait demeure que les individus continuent de se radicaliser en ligne. Selon Hosseinmardi et d'autres experts, la recherche continue et axée sur les solutions est primordiale pour résoudre ce problème. Début novembre, l'étude connexe de l'équipe de 2020, "Évaluer l'échelle, la croissance et les origines des chambres d'écho de droite sur YouTube", a été citée lors d'une audience du Comité sénatorial américain sur la sécurité intérieure et les affaires gouvernementales qui a examiné le rôle des plateformes de médias sociaux. dans la montée de l'extrémisme domestique.

    Hosseinmardi et ses collègues considèrent que leur travail dans ce domaine est en constante évolution. PennMAP, un projet de recherche interdisciplinaire et non partisan dirigé par le CSSLab, développe une technologie pour évaluer les biais des médias et les modèles de désinformation à travers le spectre politique, et pour suivre comment la consommation d'informations affecte les croyances individuelles et collectives. L'équipe crée une infrastructure de données évolutive pour analyser des dizaines de téraoctets de contenu télévisuel, radiophonique et Web, tout en étudiant des panels représentatifs d'environ 500 000 consommateurs de médias sur plusieurs années. Ils travaillent également avec des chercheurs de l'Ecole polytechnique fédérale de Suisse pour surveiller les effets des changements de politique de YouTube et de la dé-plateforme sur ses utilisateurs à travers le Web et découvrir si la consommation extrême de contenu est par conséquent réduite, ou si les utilisateurs remplacent simplement YouTube par une autre plate-forme qui héberge un contenu similaire.

    Cependant, prévient Hosseinmardi, les problèmes de société ne peuvent être résolus par la seule réforme des politiques. Dans une large mesure, les plateformes comme YouTube reflètent le monde hors ligne. La désinformation fait partie d'un cycle plus large, dans lequel un contenu biaisé ou trompeur peut déshumaniser les groupes marginalisés et minoritaires, affectant le niveau d'empathie des autres à leur égard dans la "vraie" vie. Alors que la désinformation continue de circuler, la haine et le harcèlement continuent de se propager et les groupes concernés deviennent de plus en plus silencieux.

    En fin de compte, souligne Hosseinmardi, il est de notre responsabilité d'avoir une réflexion critique sur les informations que nous consommons et que nous acceptons comme étant la vérité.

    "Je ne peux pas prétendre qu'aucune plate-forme n'est à blâmer, mais nous ne devons pas oublier notre rôle en tant que société, et que des personnes ayant une certaine apparence, ou des personnes d'une certaine race ou religion sont victimes", dit-elle. "Les plateformes sont le reflet de gros problèmes de société dont nous devons nous soucier davantage, au lieu de simplement pointer du doigt les plateformes. Elles devraient faire leur part, mais nous devrions aussi faire notre part."

    © Science https://fr.scienceaq.com