Crédit :CC0 Domaine public
Au milieu de la pandémie mondiale de coronavirus, La désinformation sur la situation s'est propagée à une vitesse fulgurante sur les réseaux sociaux. Selon les mots de Kathleen Carley, membre de la faculté CyLab et professeur à l'Institute for Software Research de la School of Computer Science, "C'est dangereux." Son groupe de recherche surveille de près la situation et partage régulièrement ses conclusions.
Vous avez étudié des campagnes de désinformation autour de toutes sortes d'événements, allant des élections aux catastrophes naturelles. Que voyez-vous maintenant pendant cette pandémie de coronavirus?
Dans une étude préliminaire, nous avons consulté les publications Twitter sur le coronavirus, nommé SARS-CoV-2, et la maladie qu'il provoque, COVID-19 [FEMININE, entre le 29 janvier et le 4 mars :plus de 67 millions de tweets d'environ 12 millions d'utilisateurs. Cette période était un peu plus d'une semaine après que les États-Unis ont annoncé leurs premiers cas.
Ce que nous avons vu jusqu'à présent, c'est que la désinformation à ce sujet tombe dans au moins trois catégories différentes. D'abord, il y a beaucoup d'histoires contenant des informations inexactes sur les remèdes ou les mesures préventives, comme ceux qui disent que boire de l'eau de Javel vous protégera, ou qu'enduire votre corps d'huile de sésame aide. Seconde, il y a un certain nombre d'histoires sur la nature du virus, comme l'affirmation selon laquelle les enfants ne peuvent pas contracter le virus, ce qui n'est pas vrai. Dernièrement, il y a aussi un certain nombre d'histoires sur la militarisation ou la bio-ingénierie du virus.
Quel rôle les robots des médias sociaux ont-ils joué dans cela, et d'où viennent ces bots ?
Il est trop tôt pour dire d'où viennent les bots, mais nous constatons que 40 % des discussions autour du coronavirus et du COVID-19 proviennent de bots. Parmi les utilisateurs eux-mêmes engagés dans une conversation autour du virus, nous constatons qu'environ 22% d'entre eux sont des robots.
Un gros problème est que ces bots sont très influents - le réseau qui les entoure est configuré de telle sorte qu'ils ont beaucoup d'auditeurs. Quarante-deux pour cent des 50 premiers mentionnants influents sont des bots, 82% des 50 premiers re-tweeters les plus influents sont des bots, et 62 pour cent du top 1, 000 re-tweeters sont des bots. Cela signifie que, semblable au virus lui-même, la désinformation sur le virus se propage rapidement - seulement beaucoup, Plus vite.
Comment la désinformation que vous voyez maintenant se compare-t-elle à la désinformation du passé, dire, élections ou catastrophes naturelles ?
Tout d'abord, il y a juste beaucoup plus de désinformation autour de ce sujet que vous n'en verriez lors d'une élection. Les catégories auxquelles il appartient sont également différentes. Autour d'une élection, beaucoup de désinformation tourne autour du processus de vote lui-même, où s'inscrire, où voter, etc. Ou c'est autour des candidats – la désinformation menant soit à la diffamation des candidats, soit à l'amélioration de leur image.
Dans la situation actuelle, la désinformation est moins personnalisée. Une énorme fraction de ces histoires suggère de faux remèdes et de fausses préventions. Par rapport à un scénario de catastrophe naturelle, vous voyez des choses similaires à propos de fausses mesures d'urgence. Par exemple, une certaine désinformation s'est répandue à un moment donné que la ville de New York était enfermée sous la loi martiale. C'était et n'est pas vrai. Cela ressemble plus à une catastrophe naturelle qu'à un événement politique à cet égard, mais vous en voyez encore beaucoup plus pendant cette pandémie. Et contrairement à la situation pendant les élections, De nombreuses sociétés de médias sociaux tentent actuellement de lutter contre la désinformation autour du coronavirus.
Vos conseils aux utilisateurs sont-ils différents maintenant de ce qu'ils étaient dans le passé ?
C'est vraiment similaire, et c'est extrêmement important étant donné à quel point certaines de ces désinformations sont dangereuses. Si vous voyez de la désinformation, l'appeler, parce que certaines d'entre elles sont mortelles. Si vous voyez une satire ou une blague sur le virus ou COVID-19, ne le partagez pas ; une personne qui le lit pourrait ne pas se rendre compte que c'est de la satire.
Le danger autour de cette désinformation est quelque peu nouveau. Lors des élections, le partage de la désinformation constitue une menace pour la démocratie. C'est très mauvais. Dans cette situation, si vous suivez les directives de certaines de ces désinformation, vous pourriez réellement vous faire du mal.
Sur quoi vous concentrez-vous pour aller de l'avant ?
En plus de continuer à surveiller les activités de désinformation sur Twitter, nous sommes également intéressés par les communautés YouTube et Reddit - les types de désinformation qui y sont partagées, et dans quelle mesure il est amplifié par les comptes de bots. Nous espérons avoir des résultats sur ces réseaux dans les semaines à venir.
Les recherches en cours de Carley sont menées dans le Centre pour la démocratie éclairée et la cybersécurité sociale (IDeaS) et le Centre d'analyse informatique et des systèmes organisationnels (CASOS) à l'Université Carnegie Mellon.