Crédit :Unsplash/CC0 Domaine public
Ni la désinformation ni l'intimidation des électeurs ne sont nouvelles. Mais les outils développés par des entreprises technologiques de premier plan, dont Twitter, Facebook et Google permettent désormais à ces tactiques de se développer considérablement.
En tant que spécialiste de la cybersécurité et de la sécurité électorale, J'ai soutenu que ces entreprises doivent faire plus pour freiner la désinformation, répression numérique et suppression des électeurs sur leurs plateformes, y compris en traitant ces questions comme une question de responsabilité sociale des entreprises.
Plus tôt cet automne, Twitter a annoncé de nouvelles mesures pour lutter contre la désinformation, y compris de fausses allégations sur les risques du vote par correspondance. Facebook s'est également engagé à lutter contre la désinformation et l'intimidation des électeurs sur sa plateforme, y compris en supprimant les messages qui encouragent les gens à surveiller les bureaux de vote.
Google a abandonné le domaine Proud Boys que l'Iran aurait utilisé pour envoyer des messages à quelque 25, 000 démocrates enregistrés qui les ont menacés s'ils ne changeaient pas de parti et ne votaient pas pour Trump.
Mais une telle autorégulation, bien qu'utile, ne peut aller que jusqu'à présent. Le moment est venu pour les États-Unis d'apprendre de l'expérience d'autres pays et de tenir les entreprises technologiques responsables de veiller à ce que leurs plateformes ne soient pas utilisées à mauvais escient pour saper les fondements démocratiques du pays.
Intimidation des électeurs
Le 20 octobre, démocrates enregistrés en Floride, un état de swing crucial, et Alaska a commencé à recevoir des courriels prétendument du groupe d'extrême droite Proud Boys. Les messages étaient remplis de menaces pouvant aller jusqu'à des représailles violentes si le récepteur ne votait pas pour le président Trump et ne changeait pas son affiliation à un parti en républicain.
Moins de 24 heures plus tard, le 21 octobre, Le directeur américain du renseignement national John Ratcliffe et le directeur du FBI Christopher Wray ont donné un briefing dans lequel ils ont publiquement attribué cette tentative d'intimidation des électeurs à l'Iran. Ce verdict a ensuite été corroboré par Google, qui a également affirmé que plus de 90 % de ces messages étaient bloqués par des filtres anti-spam.
Le timing rapide de l'attribution aurait été le résultat de la nature étrangère de la menace et du fait qu'elle approchait si près du jour du scrutin. Mais il est important de noter qu'il ne s'agit que du dernier exemple d'une telle intimidation des électeurs. D'autres incidents récents incluent un programme d'appels automatisés ciblant principalement des villes afro-américaines telles que Detroit et Cleveland.
On ne sait toujours pas combien de ces messages ont réellement atteint les électeurs et comment à leur tour ces menaces ont changé le comportement des électeurs. Il existe des preuves que de telles tactiques peuvent se retourner contre eux et conduire à des taux de participation plus élevés dans la population ciblée.
Désinformation sur les réseaux sociaux
Les campagnes de désinformation efficaces comportent généralement trois volets :
Un média parrainé par l'État à l'origine de la fabrication Des sources médiatiques alternatives disposées à diffuser la désinformation sans vérifier adéquatement les faits sous-jacents « agents d'influence conscients ou non » :c'est-à-dire, les gens pour faire avancer l'histoire dans d'autres points de vente
L'avènement du cyberespace a accéléré le processus de désinformation, à la fois accélérant la propagation virale des histoires à travers les frontières et les plateformes nationales avec facilité et provoquant une prolifération des types de médias traditionnels et sociaux prêts à diffuser de fausses histoires.
À ce jour, les grandes entreprises de médias sociaux ont adopté une approche largement fragmentaire et fragmentée pour gérer ce problème complexe. Twitter a annoncé une interdiction des publicités politiques pendant la saison électorale américaine de 2020, en partie à cause des préoccupations concernant la diffusion de fausses informations. Facebook a opté pour une interdiction plus limitée des nouvelles publicités politiques une semaine avant les élections.
Les États-Unis n'ont pas d'équivalent de la loi française interdisant tout discours d'influence la veille d'une élection.
Effets et contraintes
Les impacts de ces efforts ont été atténués, en partie à cause de la prévalence des robots sociaux qui diffusent des informations de faible crédibilité de manière virale sur ces plateformes. Il n'existe pas de données complètes sur la quantité totale de désinformation ou sur la manière dont elle affecte les utilisateurs.
Certaines études récentes font la lumière, bien que. Par exemple, une étude de 2019 a révélé qu'un très petit nombre d'utilisateurs de Twitter représentaient la grande majorité de l'exposition à la désinformation.
Les plates-formes technologiques sont contraintes d'en faire plus par plusieurs forces. Il s'agit notamment de la peur d'un parti pris politique perçu et d'une forte croyance parmi beaucoup, dont Mark Zuckerberg, dans une interprétation robuste de la liberté d'expression. Une préoccupation connexe des sociétés de plate-forme est que plus elles sont perçues comme des gardiens des médias, plus ils seront susceptibles de faire face à une nouvelle réglementation.
Les sociétés de plateforme sont également limitées par les technologies et les procédures qu'elles utilisent pour lutter contre la désinformation et l'intimidation des électeurs. Par exemple, Le personnel de Facebook aurait dû intervenir manuellement pour limiter la diffusion d'un article du New York Post sur l'ordinateur portable de Hunter Biden qui pourrait faire partie d'une campagne de désinformation. Cela met en évidence comment les entreprises de plateformes rattrapent leur retard dans la lutte contre la désinformation et doivent consacrer plus de ressources à cet effort.
Options réglementaires
Il existe un consensus bipartite croissant selon lequel il faut faire davantage pour freiner les excès des médias sociaux et mieux gérer le double problème de l'intimidation des électeurs et de la désinformation. Ces dernières semaines, nous avons déjà vu le ministère américain de la Justice ouvrir une nouvelle affaire antitrust contre Google, lequel, bien que cela ne soit pas lié à la désinformation, peut être compris dans le cadre d'une campagne plus large visant à réglementer ces mastodontes.
Un autre outil à la disposition du gouvernement américain est la révision, ou même révoquer, Section 230 de la Communications Decency Act des années 90. Cette loi a été conçue pour protéger les entreprises technologiques au fur et à mesure de leur développement contre la responsabilité du contenu que les utilisateurs publient sur leurs sites. De nombreux, dont l'ancien vice-président Joe Biden, soutiennent qu'il a dépassé son utilité.
Une autre option à considérer consiste à tirer des enseignements de l'approche de l'UE. En 2018, la Commission européenne a réussi à amener les entreprises technologiques à adopter le « Code de pratique sur la désinformation, " qui ont engagé ces entreprises à renforcer " la transparence autour de la publicité politique et thématique. " Cependant, ces mesures de lutte contre la désinformation, et le système d'alerte rapide de l'UE connexe, n'ont jusqu'à présent pas été en mesure d'endiguer le flot de ces menaces.
Au lieu, il y a de plus en plus d'appels à adopter une multitude de réformes pour s'assurer que les plateformes publient des informations exactes, protéger les sources d'informations exactes grâce à des exigences de cybersécurité renforcées et surveiller plus efficacement la désinformation. Les entreprises technologiques en particulier pourraient faire plus pour faciliter le signalement de la désinformation, contacter les utilisateurs qui ont interagi avec un tel contenu avec un avertissement et retirer les fausses informations sur le vote, comme Facebook et Twitter ont commencé à le faire.
De telles étapes ne sont qu'un début. Tout le monde a un rôle à jouer pour rendre la démocratie plus difficile à pirater, mais les plateformes technologiques qui ont tant fait pour contribuer à ce problème ont le devoir démesuré de le résoudre.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.