• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Facebook a fermé des comptes diffusant de fausses nouvelles, mais est-il responsable ?

    Depuis l'année dernière, Facebook a supprimé les faux comptes de nouvelles de pays du monde entier. Crédit :Shutterstock

    Depuis la fin de l'année dernière, Facebook a activement fermé les comptes responsables de la propagation de canulars dans certains pays, en particulier ceux qui organisent des élections générales.

    En Indonésie, par exemple, Facebook a fermé des milliers de comptes censés diffuser de la désinformation.

    Malheureusement, La politique de Facebook sur la fermeture des comptes n'est pas assez transparente. Des questions se sont posées lorsque Facebook a récupéré un compte qui appartenait à l'activiste des médias sociaux Permadi Arya, un partisan du candidat présidentiel sortant, Joko "Jokowi" Jokowi. Facebook a bloqué puis récupéré son compte après que Permadi a menacé de poursuivre Facebook pour environ 1 milliard de roupies (70 millions de dollars) s'il n'ouvrait pas ses comptes et ne blanchissait pas son nom.

    Facebook n'a pas clairement expliqué sa politique de fermeture ou de récupération de comptes. La transparence est nécessaire de la part de Facebook pour s'assurer qu'il est libre de toute pression politique. Cela permettra également à ses utilisateurs de prendre des mesures pour lutter contre les canulars et la désinformation.

    Une responsabilité enfin remplie

    Les plateformes de médias sociaux devraient jouer un rôle clé pour arrêter la propagation de la désinformation. La désinformation a polarisé les sociétés aux États-Unis, Brésil, Moldavie et Indonésie. L'inaction des plateformes a permis à la désinformation et aux discours de haine de se propager plus rapidement, déclenchement du génocide (au Myanmar), homicides (en Inde) et crises sanitaires (au Libéria et au Nigeria).

    Jusque récemment, les médias sociaux ont justifié leur inaction en arguant qu'ils ne sont pas des sociétés de médias. Par conséquent, ils ne devraient pas réglementer les informations circulant sur leurs plateformes. Le PDG de Twitter, Jack Dorsey, a déclaré à CNN l'année dernière que Twitter ne devrait pas être "l'arbitre de la vérité" sur sa plate-forme.

    Cependant, les plateformes devraient être chargées d'empêcher la diffusion d'informations erronées et de canulars pour au moins quatre raisons.

    D'abord, les acteurs qui répandent la désinformation font souvent partie d'un groupe organisé. Une personne, peu importe ses ressources, ne peut pas se protéger de ces réseaux. Une étude des comportements des individus dans la diffusion de désinformation que j'ai menée avec mon collègue, M. Laeeq Khan, a montré qu'une personne pouvait toujours diffuser de la désinformation sur les réseaux sociaux même si elle savait que l'information était fausse. En d'autres termes, les plateformes devraient minimiser la propagation des canulars car s'appuyer sur des individus ne suffit pas.

    Seconde, les plateformes de médias sociaux établissent les algorithmes et l'intelligence artificielle pour les chronologies où les canulars et la désinformation circulent. Par conséquent, ce sont eux qui ont les connaissances et la compréhension nécessaires pour éviter les bulles d'information parmi leurs utilisateurs.

    Troisième, les entreprises de médias sociaux ont un accès illimité à toutes les données pour les aider à identifier la désinformation sur leurs réseaux.

    Durer, en tant que partie de la société, les entreprises de médias sociaux ont la responsabilité éthique de gérer la circulation et la qualité de l'information.

    Comment la politique de Facebook affectera-t-elle la démocratie ?

    Dans son livre L'éthique et les médias :une introduction, Stephen Ward, spécialiste de l'éthique des médias, considère Internet comme une nouvelle sphère publique où les gens peuvent partager diverses expressions et opinions. C'est aussi un nouveau marché d'idées qui contribue à promouvoir la démocratie.

    Néanmoins, Ward pense que les conversations en ligne ne contribuent parfois pas au discours public et à la démocratie. Au lieu, Internet devient juste un autre canal de communication.

    Les conversations sur les réseaux sociaux traitent généralement de choses superficielles, se concentrant principalement sur les questions populaires et le divertissement. Ainsi, ils contribueraient peu à instaurer la démocratie dans les débats publics. Quand la conversation est pleine de haine et fait du mal, la capacité d'Internet à créer un discours démocratique est également remise en question.

    Après le deuxième débat présidentiel en Indonésie, par exemple, les gens ont principalement discuté de la méconnaissance d'un candidat avec un terme d'entreprise technologique sur les réseaux sociaux. Discussions sur des questions plus critiques, telles que les qualités des deux candidats, n'a pas reçu beaucoup d'attention du public.

    De plus, Ward a déclaré que l'objectif principal de la démocratie n'est ni une presse libre ni le marché des idées. Ses principaux objectifs sont de créer l'harmonie dans la société et de promouvoir l'ouverture, participation égale et respectueuse à la vie sociale. Pour atteindre ces objectifs, la démocratie exige une participation factuelle du public.

    L'Indonésie souffre des dommages causés par la désinformation diffusée sur les réseaux sociaux depuis les élections générales de 2014. Cela s'est produit lors des élections au poste de gouverneur de Jakarta en 2017 et se poursuit dans la campagne actuelle pour les élections de 2019.

    Cette année, la polarisation des opinions sur les réseaux sociaux est de plus en plus perceptible. Un nombre croissant d'acteurs répandent de la désinformation pour façonner l'opinion publique et attiser la haine.

    En fermant les comptes associés à la diffusion de discours haineux et de désinformation, les plateformes de médias sociaux jouent leur rôle dans le maintien de la démocratie et de l'ordre public.

    Facebook doit encore être transparent

    D'autres plateformes de médias sociaux doivent suivre l'étape de Facebook en fermant les comptes suspects. Cependant, Facebook doit encore expliquer au public sa politique de fermeture de ces comptes.

    En Indonésie, Comptes Facebook désactivés associés au groupe Saracen, qui est accusé de propager des discours de haine, le racisme et les valeurs intolérantes. Ce groupe agit comme un mercenaire, attaquer les gens par ordre. Fin 2017, la police nationale a attrapé ce groupe.

    Facebook a déclaré qu'il s'était associé aux gouvernements, experts et autres plateformes pour empêcher la désinformation de se répandre. La question est :quelle recommandation Facebook écouterait-il dans sa tentative de lutter contre la désinformation ?

    Jusqu'ici, L'explication de Facebook ne touche les choses qu'en surface. Avoir le plus d'utilisateurs de médias sociaux en Asie du Sud-Est avec 130 millions d'utilisateurs actifs, Facebook en Indonésie doit encore expliquer pourquoi il a fermé un compte et pas l'autre. La transparence est nécessaire pour s'assurer que la décision de Facebook est libre de toute pression politique et qu'elle ne ferme pas seulement les comptes qui critiquent le gouvernement.

    En expliquant comment son algorithme et son système peuvent détecter la désinformation, Facebook aidera les utilisateurs à analyser leurs chronologies.

    L'énorme quantité d'informations diffusées sur Facebook chaque jour rend toute personne susceptible d'être exposée à la désinformation. La transparence de Facebook est essentielle pour aider le public à mieux comprendre ce qui se passe, afin qu'ils puissent se donner les moyens de lutter contre la propagation de la désinformation.

    Facebook, qui gère également WhatsApp et Instagram, les plateformes de médias sociaux les plus populaires en Indonésie, doit également fonctionner plus rapidement pour empêcher la propagation de la désinformation. Les élections générales ont lieu dans moins d'un mois et la propagation de la désinformation peut se produire à tout moment.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com