Facebook Live peut être amusant – ou vraiment effrayant. Crédit :Je suis vendredi/Shutterstock.com
Quand on a appris que le massacre en Nouvelle-Zélande avait été diffusé en direct sur Facebook, J'ai tout de suite pensé à Robert Godwin Sr. En 2017, Godwin a été assassiné à Cleveland, Ohio, et les premiers rapports indiquaient que l'attaquant l'avait diffusé sur Facebook Live, à l'époque une fonctionnalité relativement nouvelle du réseau social. Facebook a ensuite précisé que la vidéo graphique avait été téléchargée après l'événement, mais l'incident a attiré l'attention du public sur les risques de violence en direct.
À la suite du meurtre de Godwin, J'ai recommandé que les diffusions Facebook Live soient différées, au moins pour les utilisateurs de Facebook qui avaient dit à l'entreprise qu'ils avaient moins de 18 ans. De cette façon, les utilisateurs adultes auraient la possibilité de signaler le contenu inapproprié avant que les enfants n'y soient exposés. Facebook Live a diffusé des meurtres, ainsi que d'autres crimes graves tels que les agressions sexuelles, la torture et la maltraitance des enfants. Bien que l'entreprise en ait embauché plus de 3, 000 modérateurs de contenu humain supplémentaires, Facebook n'est pas meilleur pour empêcher la violence horrible de diffuser en direct en ligne sans aucun filtre ni avertissement pour les utilisateurs.
Dans les 24 heures qui ont suivi le massacre de la Nouvelle-Zélande, 1,5 million de vidéos et d'images des meurtres ont été téléchargées sur les serveurs de Facebook, l'entreprise a annoncé. Facebook a souligné le fait que 1,2 million d'entre eux "ont été bloqués au téléchargement". Cependant, en tant que chercheur et éducateur en médias sociaux, J'ai entendu cela comme un aveu que 300, 000 vidéos et images d'un meurtre de masse ont transité par ses systèmes automatisés et étaient visibles sur la plateforme.
La société a récemment publié des détails analytiques et a noté que moins de 200 personnes ont regardé le livestream du massacre, et que, étonnamment, aucun utilisateur ne l'a signalé à Facebook avant sa fin. Ces détails montrent clairement à quel point Facebook dépend des utilisateurs pour signaler les contenus nuisibles. Ils suggèrent également que les gens ne savent pas comment signaler un contenu inapproprié - ou n'ont pas confiance que l'entreprise donnera suite à la plainte.
La vidéo qui est restée après la fin du livestream a été visionnée près de 4, 000 fois – ce qui n'inclut pas les copies de la vidéo téléchargées sur d'autres sites et sur Facebook par d'autres utilisateurs. On ne sait pas combien de personnes qui l'ont vu étaient des mineurs; des jeunes aussi jeunes que 13 ans sont autorisés à créer des comptes Facebook et pourraient avoir rencontré des images non filtrées de haine meurtrière. Il est plus que temps pour l'entreprise d'intensifier et de tenir la promesse de son fondateur et PDG, Mark Zuckerberg, fait il y a deux ans, après le meurtre de Godwin :"Nous continuerons à faire tout notre possible pour empêcher que de telles tragédies ne se produisent."
Une simple temporisation
Dans l'industrie de la télévision, des délais courts de quelques secondes sont typiques lors de la diffusion d'événements en direct. Ce temps permet à un modérateur d'examiner le contenu et de confirmer qu'il convient à un large public.
Facebook s'appuie sur les utilisateurs comme modérateurs, et certaines diffusions en direct peuvent ne pas avoir un large public comme la télévision, son délai devrait donc être plus long, peut-être quelques minutes. Ce n'est qu'alors que suffisamment d'utilisateurs adultes l'auraient visionné et auraient eu la possibilité de signaler son contenu. Grands utilisateurs, y compris les éditeurs et les entreprises, pourrait être autorisé à diffuser en direct directement après avoir terminé un cours de formation. Facebook pourrait même permettre aux gens de demander un modérateur d'entreprise pour les diffusions en direct à venir.
Facebook n'a pas encore franchi cette étape relativement simple – et la raison en est claire. Les retards se sont imposés à la télévision uniquement parce que les régulateurs de la radiodiffusion ont pénalisé les diffuseurs pour avoir diffusé du contenu inapproprié lors d'émissions en direct. Il n'y a effectivement aucune réglementation pour les sociétés de médias sociaux; ils ne changent que dans la poursuite de profits ou pour minimiser le tollé général.
Si et comment réglementer les médias sociaux est une question politique, mais de nombreux politiciens américains ont développé des liens étroits avec des plateformes comme Facebook. Certains se sont appuyés sur les réseaux sociaux pour collecter des dons, cibler les supporters avec de la publicité et les aider à se faire élire. Une fois en poste, ils continuent d'utiliser les médias sociaux pour communiquer avec leurs partisans dans l'espoir d'être réélus.
Les agences fédérales utilisent également les médias sociaux pour communiquer avec le public et influencer les opinions des gens, même en violation de la loi américaine. À mon avis, le rôle de Facebook comme outil à gagner, conserver et étendre le pouvoir politique rend les politiciens beaucoup moins susceptibles de le maîtriser.
La réglementation américaine n'arrive pas de sitôt
Le Congrès n'a encore pris aucune mesure significative pour réglementer les sociétés de médias sociaux. Malgré des déclarations fermes de politiciens et même des appels à des audiences sur les médias sociaux en réponse à l'attaque néo-zélandaise, Les régulateurs américains ne sont pas susceptibles de montrer la voie.
Les fonctionnaires de l'Union européenne s'occupent d'une grande partie du travail, surtout autour de la vie privée. Le gouvernement néo-zélandais a intensifié, trop, interdisant la vidéo en direct du massacre de la mosquée, ce qui signifie que toute personne qui le partage pourrait faire face jusqu'à 10 $ NZ, 000 d'amendes et 14 ans de prison. Au moins deux personnes ont déjà été arrêtées pour l'avoir partagée en ligne.
Facebook pourrait – et devrait – agir maintenant
Une grande partie de la discussion sur la réglementation des médias sociaux a envisagé d'utiliser des lois antitrust et monopolistiques pour forcer les énormes géants de la technologie comme Facebook à se diviser en petites entreprises distinctes. Mais si ça arrive, ce sera très difficile - la rupture d'AT&T a duré une décennie, du procès de 1974 au lancement en 1984 des sociétés « Baby Bell ».
Dans l'intervalle, il y aura beaucoup plus d'incidents dangereux et violents que les gens essaieront de diffuser en direct. Facebook devrait évaluer le potentiel d'abus de ses produits et les arrêter si les effets sont nocifs pour la société.
Aucun enfant ne devrait jamais voir le genre de « contenu brut et viscéral » qui a été produit sur Facebook Live – y compris le meurtre de masse. Je ne pense pas non plus que les utilisateurs adultes devraient être exposés à des actes aussi odieux, car des études ont montré que regarder de la violence graphique comporte des risques pour la santé, comme le stress post-traumatique.
C'est pourquoi je ne recommande plus seulement un délai de diffusion en direct pour les utilisateurs adolescents - c'était un appel à protéger les enfants, lorsque des changements de plate-forme plus importants sont peu probables. Mais tout le monde mérite des médias sociaux meilleurs et plus sûrs. J'appelle maintenant Mark Zuckerberg à fermer Facebook Live dans l'intérêt de la santé et de la sécurité publiques. À mon avis, cette caractéristique ne devrait être restaurée que si l'entreprise peut prouver au public - et aux régulateurs - que sa conception est plus sûre.
Gérer la diffusion en direct en toute sécurité implique d'avoir plus qu'assez de modérateurs de contenu professionnels pour gérer la charge de travail. Ces travailleurs doivent également avoir un accès approprié à un soutien en santé mentale et à des environnements de travail sûrs, afin que même les employés et les sous-traitants de Facebook ne soient pas indûment marqués par la violence brutale publiée en ligne.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.