• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Le plan de Facebook pour protéger les élections européennes échoue

    Des nouvelles intentionnellement fausses ont été partagées plus de 35 millions de fois lors de l'élection présidentielle américaine de 2016, Facebook jouant un rôle important dans leur diffusion. Peu après, le scandale Cambridge Analytica a révélé que 50 millions de profils Facebook avaient été récoltés sans autorisation et utilisés pour cibler des publicités politiques et des fausses nouvelles pour les élections et plus tard lors du référendum britannique sur le Brexit en 2016.

    Bien que le réseau social ait admis qu'il avait été lent à réagir au problème, il a développé des outils pour les élections de mi-mandat aux États-Unis de 2018 qui ont permis aux utilisateurs de Facebook de voir qui se cache derrière les publicités politiques qui leur sont diffusées. Facebook définit les publicités comme toute forme de contenu sponsorisé financièrement. Il peut s'agir de publicités de produits traditionnelles ou de faux articles de presse qui ciblent certaines données démographiques pour un impact maximal.

    Maintenant, l'attention se porte sur les élections au Parlement européen de 2019, qui aura lieu à partir du 23 mai, et la société a introduit un registre public de toutes les publicités politiques et de nouvelles règles de transparence radicales conçues pour empêcher qu'elles ne soient placées de manière anonyme. Cette décision fait suite à l'expansion de Facebook de ses opérations de vérification des faits, par exemple en s'associant à l'association caritative britannique de vérification des faits FullFact.

    Facebook nous a dit qu'il a pris une position de leader sur la transparence des publicités politiques au Royaume-Uni, avec de nouveaux outils qui vont au-delà de ce que la loi exige actuellement et qu'il a investi de manière significative pour empêcher la propagation de la désinformation et renforcer un journalisme de haute qualité et une éducation à l'information. Les outils de transparence montrent exactement quelle page diffuse des annonces, et toutes les annonces qu'ils diffusent. Il héberge ensuite ces annonces dans sa "bibliothèque d'annonces" pendant sept ans. Il affirme qu'il ne veut pas de contenu trompeur sur son site et le réprime en utilisant une combinaison de technologie et d'examen humain.

    Bien que ces mesures contribueront dans une certaine mesure à résoudre le problème, plusieurs défauts sont déjà apparus. Et il reste difficile de voir comment Facebook peut lutter contre les fake news notamment avec ses mesures existantes.

    En 2018, Les journalistes de Business Insider US ont réussi à placer de fausses publicités qu'ils ont répertoriées comme payées par la société aujourd'hui disparue Cambridge Analytica. C'est ce genre de fraude que Facebook vise à éradiquer avec ses règles de transparence de l'information, qui exigent que les annonceurs politiques prouvent leur identité. Cependant, il convient de noter qu'aucune des « annonces de test » de Business Insider ne semble être répertoriée dans la nouvelle bibliothèque d'annonces de Facebook, soulevant des questions sur son efficacité en tant que dossier public complet.

    Le problème est qu'indiquer quelle personne ou quelle organisation a payé la facture d'une publicité n'est pas la même chose que de révéler la source ultime de son financement. Par exemple, il a été récemment rapporté que la plus grande dépense politique de la Grande-Bretagne sur Facebook était Britain's Future, un groupe qui a dépensé près de 350 £, 000 sur les annonces. Le groupe remonte à un seul individu :l'écrivain indépendant de 30 ans Tim Dawson. Mais on ne sait pas exactement qui finance le groupe.

    Bien que le groupe autorise les dons, ce n'est pas une société enregistrée, il n'apparaît pas non plus dans la base de données de la Commission électorale du Royaume-Uni ou du Commissaire à l'information. Cela met en évidence une faille clé du régime de publicité politique du Royaume-Uni qui n'est pas corrigée par les mesures de Facebook, et montre que la transparence au niveau de l'achat d'annonces n'est pas suffisante pour révéler une influence inappropriée potentielle.

    Les nouvelles mesures reposent également sur le fait que les annonceurs classent leurs annonces comme politiques, ou en utilisant un langage ouvertement politique. Cela signifie que les annonceurs pourraient toujours envoyer des messages codés que les algorithmes de Facebook pourraient ne pas détecter.

    Facebook a récemment eu plus de succès lorsqu'il a identifié et supprimé son premier réseau de fausses informations basé au Royaume-Uni, qui comprenait 137 groupes diffusant « des commentaires qui divisent des deux côtés du débat politique au Royaume-Uni ». Mais la découverte est intervenue dans le cadre d'une enquête sur un discours de haine envers le ministre de l'Intérieur, Sajid Javid. Cela suggère que les méthodes dédiées de Facebook pour lutter contre les fausses nouvelles ne fonctionnent pas aussi efficacement qu'elles le pourraient.

    Facebook a eu amplement le temps de s'attaquer au problème moderne des fausses nouvelles utilisées à des fins politiques. Dès 2008, La Russie a commencé à diffuser de la désinformation en ligne pour influencer les procédures en Ukraine, qui est devenu un terrain d'essai pour les tactiques de cyberguerre et de désinformation en ligne du Kremlin. De fausses nouvelles isolées ont ensuite commencé à faire surface aux États-Unis au début des années 2010, ciblant les politiciens et des sujets de division tels que le contrôle des armes à feu. Ceux-ci ont ensuite évolué en réseaux de fausses informations sophistiqués opérant au niveau mondial.

    Mais la façon dont Facebook fonctionne signifie qu'il a joué un rôle clé en aidant les fausses nouvelles à devenir si puissantes et efficaces. Le fardeau de la preuve pour un reportage a été réduit à un aspect :la popularité. Avec assez de likes, partages et commentaires - qu'ils proviennent de vrais utilisateurs, cliquez sur les fermes ou les robots - une histoire gagne en légitimité, quelle que soit la source.

    Sauvegarder la démocratie

    Par conséquent, certains pays ont déjà décidé que l'autorégulation de Facebook ne suffisait pas. En 2018, dans le but de « sauvegarder la démocratie », le président français, Emmanuel Macron, a introduit une loi controversée interdisant les fausses nouvelles en ligne pendant les élections qui donne aux juges le pouvoir de supprimer et d'obtenir des informations sur qui a publié le contenu.

    Pendant ce temps, L'Allemagne a instauré des amendes pouvant aller jusqu'à 50 millions d'euros sur les réseaux sociaux hébergeant des contenus illégaux, y compris les fausses nouvelles et les discours de haine. Incidemment, alors que les Allemands ne représentent que 2% des utilisateurs de Facebook, Les Allemands représentent désormais plus de 15 % de l'effectif mondial des modérateurs de Facebook. Dans un mouvement similaire fin décembre 2018, Les législateurs irlandais ont présenté un projet de loi visant à criminaliser les publicités politiques sur Facebook et Twitter contenant des informations intentionnellement fausses.

    The real-life impact these policies have is unclear. Fake news still appears on Facebook in these countries, while the laws give politicians the ability to restrict freedom of speech and the press, something that has sparked a mass of criticism in both Germany and France.

    Finalement, there remains a considerable mismatch between Facebook's promises to make protecting elections a top priority, and its ability to actually do the job. If unresolved, it will leave the European parliament and many other democratic bodies vulnerable to vast and damaging attempts to influence them.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com