Vous pouvez aider à arrêter la propagation de « fausses nouvelles » en ligne. Crédits :Shutterstock/panuwat phimpha
Seule une petite quantité de fausses nouvelles est nécessaire pour perturber tout débat ou discussion sur une question, selon une étude publiée aujourd'hui dans PLOS UN .
Mais il existe un moyen de décourager ceux qui diffusent de fausses nouvelles, et même de l'effacer complètement.
La recherche est expérimentale, basé sur la modélisation et les simulations, mais cela montre au moins qu'il est possible de contrer la propagation de la désinformation.
La montée des fake news
La propagation d'informations malveillantes et fausses a tourmenté les sociétés humaines pendant des siècles.
En cette ère de connectivité numérique mondiale instantanée, l'incarnation actuelle des « fake news » est devenue un fléau et est exploitée à des fins personnelles ou politiques.
Des médias sociaux, conçu pour encourager les utilisateurs à contribuer et à partager du contenu, est devenu le grand catalyseur de la diffusion de fausses nouvelles.
Des nations s'immisçant dans la politique des démocraties et des partis politiques essayant de manipuler l'opinion publique, à une industrie de "fake news" centrée sur le profit, tous ont exploité cet écart à des fins lucratives, semant la confusion et la discorde dans les populations de victimes qu'ils ciblent.
Le jeu de simulation
Nous avons fait quelques expériences visant à comprendre les mécanismes plus fondamentaux déterminant le comportement des fausses nouvelles dans les populations.
Nous nous sommes particulièrement intéressés à deux questions :
Dans le monde réel, les coûts peuvent être externes, comme les amendes, pénalités, exclusions, les dépenses de création et de distribution de contrefaçons; ou ils peuvent être internes, tels que des sentiments de perte ou d'embarras en raison d'être ridiculisé ou humilié.
L'outil que nous avons utilisé était une simulation évolutive, dans lequel de simples robots logiciels dans une population interagissent, jouer au jeu bien connu du dilemme du prisonnier. Essentiellement, un prisonnier qui en trahit un autre gagne gros, tandis que le trahi perd gravement, tandis que les deux ne gagnent que modestement s'ils coopèrent, et souffrent également s'ils se trahissent.
Contrairement aux travaux antérieurs dans ce domaine, nous avons rendu certains de ces robots logiciels un peu sournois, en ajoutant du code qui leur permettait de se tromper. La victime d'une telle tromperie est amenée à être confuse quant à l'intention du joueur adverse, ou convaincu que le joueur adverse est un « bon gars » altruistement coopératif.
Notre code a utilisé nos travaux dans la modélisation théorique de l'information des déceptions, permettant aux déceptions connues d'être cartographiées dans des modèles de théorie des jeux. Chaque trompeur dans la simulation a encouru un coût lorsqu'il a trompé, qui a ensuite été soustrait du gain qu'ils ont gagné dans le jeu du dilemme du prisonnier.
Combien de fake news pour perturber le consensus ?
Nous avons constaté que même un très petit pourcentage de joueurs trompeurs dans la population - moins de 1 % dans nos simulations - pouvait perturber de manière catastrophique les comportements coopératifs dans la population simulée.
Dans le cas extrême des tromperies gratuites – où les producteurs de fausses informations ne sont pas entravés – les comportements coopératifs ont complètement disparu. Seulement là où le coût des tromperies était supérieur à zéro, la coopération a-t-elle survécu. Là où les coûts étaient très élevés, la coopération prospère réellement.
Nous avons également constaté que pour toutes les simulations, la capacité de tromper les joueurs à survivre dépendait très fortement du coût des tromperies. Si le coût était suffisamment élevé, les trompeurs ne pouvaient pas survivre dans la population.
En appliquant cela à la diffusion de fausses nouvelles, des coûts très élevés conduiront à son extinction.
De l'expérimentation au monde réel
Que nous disent ces résultats expérimentaux sur le monde réel de la distribution de fausses nouvelles dans les médias sociaux et de masse ?
Le premier résultat et sans doute le plus important est qu'il faut très peu de fausses nouvelles pour semer le chaos dans une population, et empêcher la formation d'un consensus essentiel aux débats publics. Que les victimes soient confuses, ou croire à des mensonges, est sans importance. C'est leur capacité à parvenir à un consensus qui est perturbée.
Notre modélisation s'est concentrée sur de petits groupes d'influenceurs qui débattent activement des problèmes. Lorsque les influenceurs ne peuvent pas s'entendre, les adeptes à leur tour ne peuvent pas s'aligner sur un consensus. C'est l'une des raisons pour lesquelles les fausses nouvelles sont si destructrices pour les sociétés démocratiques.
Le deuxième résultat d'intérêt plus large est celui d'attacher un coût élevé à la production, mais surtout la distribution de fausses nouvelles peut s'avérer être l'outil le plus efficace dont nous disposons pour en empêcher la propagation. Un investissement sociétal élevé pour augmenter ces coûts vaut la peine, parce que les effets des fausses nouvelles sont si perturbateurs.
Briser la chaîne
Il y a plus de dix ans, des recherches sur la guerre de l'information ont révélé que la livraison par procuration était un multiplicateur majeur dans la diffusion de la propagande toxique.
Par exemple, les médias de masse diffusant des images et des séquences violentes produites par des terroristes agissaient comme mandataires des terroristes produisant la propagande, qu'ils le sachent ou non.
Les utilisateurs de médias sociaux qui partagent de fausses nouvelles agissent également comme mandataires des producteurs de fausses nouvelles. Ces utilisateurs sont généralement présentés comme des victimes de fausses nouvelles – ce qu'ils sont généralement – mais chaque fois qu'ils partagent de fausses nouvelles, ils deviennent des participants à la tromperie du producteur de fausses nouvelles.
Il n'est pas simple d'associer un coût à la diffusion de fausses informations sur les réseaux sociaux. La sortie informelle des affiches habituelles de fausses nouvelles est une option, ce qui est en accord avec la psychologie évolutionniste de la détection des tricheurs.
Les organisations de médias sociaux telles que Facebook disent qu'elles essaient d'être plus proactives dans la détection des fausses nouvelles et des fausses nouvelles, soit par la technologie d'apprentissage automatique, soit par des vérificateurs de faits tiers, et dit qu'il a eu quelques succès récents.
Mais ces deux idées se heurtent au problème plus délicat de déterminer exactement ce qui est ou n'est pas une fausse nouvelle. Les faits désagréables sont trop souvent qualifiés de « fausses nouvelles ».
La fiabilité et l'objectivité des vérificateurs de faits peuvent varier considérablement - les vérités fondamentales sont souvent obscurcies par des préjugés, et les limites de la compréhension.
En ce moment, contrairement aux affirmations de certains fournisseurs de médias sociaux, L'IA n'est pas à la hauteur pour trouver et éliminer les fausses nouvelles, qui rejette la responsabilité sur nous, les humains.
Nous pouvons tous aider simplement en réfléchissant un peu avant d'aimer, partager ou retweeter toute information sur les réseaux sociaux. Faites peut-être quelques recherches pour voir si l'information est vraie ou fausse.
La lutte antiparasitaire est une pratique établie dans les écosystèmes biologiques, et est clairement en retard pour l'écosystème de l'information.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.