Il n’est pas du tout clair que la désinformation ait, à ce jour, fait basculer une élection qui autrement aurait pu se dérouler dans une autre direction. Mais on a néanmoins le fort sentiment que cela a eu un impact significatif.
Alors que l'IA est désormais utilisée pour créer de fausses vidéos très crédibles et diffuser la désinformation plus efficacement, nous avons raison de craindre que de fausses nouvelles puissent changer le cours d'une élection dans un avenir pas trop lointain.
Pour évaluer la menace et y répondre de manière appropriée, nous avons besoin d’une meilleure idée de l’ampleur des dégâts que pourrait avoir le problème. En sciences physiques ou biologiques, on testerait une hypothèse de cette nature en répétant une expérience plusieurs fois.
Mais c'est beaucoup plus difficile en sciences sociales, car il n'est souvent pas possible de répéter les expériences. Si vous souhaitez connaître l'impact d'une certaine stratégie sur, par exemple, une élection à venir, vous ne pouvez pas relancer l'élection un million de fois pour comparer ce qui se passe lorsque la stratégie est mise en œuvre et lorsqu'elle ne l'est pas.
On pourrait appeler cela un problème d’histoire unique :il n’y a qu’une seule histoire à suivre. Vous ne pouvez pas remonter le temps pour étudier les effets de scénarios contrefactuels.
Pour surmonter cette difficulté, un modèle génératif devient pratique car il permet de créer de nombreux historiques. Un modèle génératif est un modèle mathématique pour la cause première d'un événement observé, accompagné d'un principe directeur qui vous indique de quelle manière la cause (entrée) se transforme en un événement observé (sortie).
En modélisant la cause et en appliquant le principe, il peut générer de nombreux historiques, et donc des statistiques nécessaires à l'étude de différents scénarios. Ceci, à son tour, peut être utilisé pour évaluer les effets de la désinformation lors des élections.
Dans le cas d'une campagne électorale, la cause première est l'information accessible aux électeurs (input), qui se transforme en mouvements de sondages d'opinion montrant les changements d'intention des électeurs (output observé). Le principe directeur concerne la manière dont les gens traitent l'information, c'est-à-dire minimiser les incertitudes.
Ainsi, en modélisant la manière dont les électeurs obtiennent l’information, nous pouvons simuler les développements ultérieurs sur un ordinateur. En d’autres termes, nous pouvons créer sur un ordinateur un « historique possible » de la manière dont les sondages d’opinion évoluent d’ici le jour de l’élection. D'une seule histoire, nous n'apprenons pratiquement rien, mais nous pouvons désormais exécuter la simulation (l'élection virtuelle) un million de fois.
Un modèle génératif ne prédit aucun événement futur, en raison de la nature bruitée des informations. Mais il fournit les statistiques de différents événements, ce dont nous avons besoin.
J’ai eu pour la première fois l’idée d’utiliser un modèle génératif pour étudier l’impact de la désinformation il y a une dizaine d’années, sans anticiper que le concept deviendrait, malheureusement, si pertinent pour la sécurité des processus démocratiques. Mes premiers modèles étaient conçus pour étudier l'impact de la désinformation sur les marchés financiers, mais à mesure que les fausses nouvelles commençaient à devenir de plus en plus problématiques, mon collègue et moi avons étendu le modèle pour étudier son impact sur les élections.
Les modèles génératifs peuvent nous indiquer la probabilité qu'un candidat donné remporte une élection future, sous réserve des données actuelles et de la spécification de la manière dont les informations sur les questions pertinentes pour l'élection sont communiquées aux électeurs. Cela peut être utilisé pour analyser comment la probabilité de victoire sera affectée si les candidats ou les partis politiques changent leurs positions politiques ou leurs stratégies de communication.
Nous pouvons inclure la désinformation dans le modèle pour étudier comment cela modifiera les statistiques de résultats. Ici, la désinformation est définie comme une composante cachée de l'information qui génère un biais.
En incluant la désinformation dans le modèle et en exécutant une simulation, le résultat nous en dit très peu sur la manière dont elle a modifié les sondages d’opinion. Mais en exécutant la simulation plusieurs fois, nous pouvons utiliser les statistiques pour déterminer le pourcentage de variation de la probabilité qu'un candidat remporte une élection future en cas de désinformation d'une ampleur et d'une fréquence données. En d’autres termes, nous pouvons désormais mesurer l’impact des fausses nouvelles grâce à des simulations informatiques.
Je dois souligner que mesurer l’impact des fausses nouvelles est différent de faire des prédictions sur les résultats des élections. Ces modèles ne sont pas conçus pour faire des prédictions. Au contraire, ils fournissent des statistiques suffisantes pour estimer l'impact de la désinformation.
L’un des modèles de désinformation que nous avons examinés est un type de désinformation qui est diffusé à un moment aléatoire, qui se renforce pendant une courte période, mais qui est ensuite atténué (par exemple en raison de la vérification des faits). Nous avons constaté qu'une seule diffusion d'une telle désinformation, bien avant le jour du scrutin, aura peu d'impact sur le résultat de l'élection.
Toutefois, si la diffusion d’une telle désinformation se répète de manière persistante, elle aura alors un impact. La désinformation biaisée en faveur d’un candidat donné déplacera légèrement le sondage en faveur de ce candidat à chaque fois qu’elle sera publiée. Parmi toutes les simulations électorales pour lesquelles ce candidat a perdu, nous pouvons identifier combien d'entre elles ont vu le résultat inversé, en fonction d'une fréquence et d'une ampleur données de la désinformation.
Les fausses nouvelles en faveur d’un candidat, sauf dans de rares circonstances, ne garantiront pas la victoire de ce candidat. Ses impacts peuvent cependant être mesurés en termes de probabilités et de statistiques. Dans quelle mesure les fausses nouvelles ont-elles modifié la probabilité de gagner ? Quelle est la probabilité de renverser le résultat d’une élection ? Et ainsi de suite.
Un résultat surprenant est que même si les électeurs ne savent pas si une information donnée est vraie ou fausse, s’ils connaissent la fréquence et les biais de la désinformation, cela suffit alors à éliminer la majeure partie de l’impact de la désinformation. La simple connaissance de la possibilité de fausses nouvelles est déjà un puissant antidote à leurs effets.
Les modèles génératifs en eux-mêmes ne constituent pas une contre-mesure à la désinformation. Ils nous donnent simplement une idée de l’ampleur des impacts. La vérification des faits peut aider, mais elle n’est pas extrêmement efficace (le génie est déjà sorti de la bouteille). Mais et si les deux étaient combinés ?
Étant donné que l'impact de la désinformation peut être largement évité en informant les gens de ce qui se passe, il serait utile que les vérificateurs de faits proposent des informations sur les statistiques de désinformation qu'ils ont identifiées – par exemple, « X % des affirmations négatives contre le candidat A étaient fausses. ". Un électorat équipé de ces informations sera moins affecté par la désinformation.
Fourni par The Conversation
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.