Livestream sur Facebook n'est pas seulement un outil pour partager la violence - il a de nombreuses utilisations sociales et politiques populaires. Crédits :glen carrie / unsplash, CC PAR
Alors que les familles de Christchurch enterrent leurs proches après l'attaque terroriste de vendredi, l'attention mondiale se tourne maintenant vers la prévention qu'une telle chose ne se reproduise plus jamais.
En particulier, le rôle joué par les médias sociaux dans la diffusion d'images en direct et l'amplification de leur portée est sous le microscope. Facebook et YouTube font l'objet d'un examen minutieux.
La Première ministre néo-zélandaise Jacinta Ardern aurait été en contact avec des dirigeants de Facebook pour faire valoir que les images ne devraient pas être visionnées. Le Premier ministre australien Scott Morrison a appelé à un moratoire sur les services de diffusion en direct amateur.
Mais au-delà de ces réponses immédiates, ce terrible incident offre l'opportunité d'une réforme à plus long terme. Il est temps que les plateformes de médias sociaux soient plus ouvertes sur le fonctionnement de la diffusion en direct, comment il est modéré, et ce qui devrait arriver si ou quand les règles tombent en panne.
Surveillance accrue
L'auteur présumé étant apparemment passé inaperçu avant cet incident à Christchurch, notre attention collective est maintenant tournée vers la radicalisation en ligne des jeunes hommes.
Dans le cadre de cela, les plateformes en ligne font l'objet d'une surveillance accrue et Facebook et Youtube ont suscité des critiques.
Après la diffusion du livestream original sur Facebook, YouTube est devenu un lieu de téléchargement et de propagation des séquences enregistrées.
Les deux plateformes ont fait des déclarations publiques sur leurs efforts de modération.
YouTube a noté les défis liés à la gestion d'un "volume sans précédent" de téléchargements.
Bien qu'il ait été rapporté que moins de 4000 personnes ont vu le flux initial sur Facebook, Facebook a déclaré :« Au cours des 24 premières heures, nous avons supprimé 1,5 million de vidéos de l'attaque dans le monde, dont plus de 1,2 million ont été bloqués lors du téléchargement […]"
Se concentrer principalement sur la diffusion en direct est quelque peu réducteur. Bien que le tireur ait initialement diffusé ses propres images, le plus grand défi de contrôler la vidéo est en grande partie lié à deux problèmes :
Ces problèmes illustrent les faiblesses des politiques et pratiques de modération de contenu existantes.
Pas une tâche facile
La modération de contenu est une responsabilité complexe et peu enviable. Des plateformes comme Facebook et YouTube sont censées équilibrer les vertus de la liberté d'expression et de l'actualité avec les normes socioculturelles et les désirs personnels, ainsi que les régimes réglementaires locaux des pays dans lesquels ils opèrent.
Lorsque les plateformes s'acquittent mal de cette responsabilité (ou, abdique complètement), ils transmettent la tâche à d'autres, comme les fournisseurs d'accès Internet néo-zélandais qui ont bloqué l'accès aux sites Web qui redistribuaient les images du tireur.
Les gens peuvent raisonnablement s'attendre à ce que des plateformes comme Facebook et YouTube aient des contrôles approfondis sur ce qui est téléchargé sur leurs sites. Cependant, les énormes bases d'utilisateurs des entreprises signifient qu'elles doivent souvent équilibrer l'application de systèmes automatisés, des systèmes algorithmiques pour la modération de contenu (comme PhotoDNA de Microsoft, et ContentID de YouTube) avec des équipes de modérateurs humains.
Nous savons d'après les rapports d'investigation que les équipes de modération de plateformes comme Facebook et YouTube sont chargées d'un travail particulièrement difficile. Ils semblent avoir un roulement de personnel relativement élevé qui est rapidement épuisé par de lourdes charges de travail tout en modérant le pire contenu sur Internet. Ils ne sont soutenus que par de maigres salaires, et ce qui pourrait être considéré comme des soins de santé mentale inadéquats.
Et tandis que certains systèmes algorithmiques peuvent être efficaces à grande échelle, ils peuvent également être détournés par des utilisateurs compétents qui comprennent certains aspects de leur méthodologie. Si vous avez déjà trouvé une vidéo sur YouTube où les couleurs sont déformées, la lecture audio est légèrement désynchronisée, ou l'image est fortement zoomée et recadrée, vous avez probablement vu quelqu'un tenter de contourner les algorithmes ContentID.
Pour les plateformes en ligne, la réponse aux attaques terroristes est encore compliquée par le difficile équilibre qu'ils doivent trouver entre leur désir de protéger les utilisateurs des images gratuites ou épouvantables et leur engagement à informer les personnes qui recherchent des nouvelles via leur plateforme.
Nous devons également reconnaître les autres modes de diffusion en direct dans la vie moderne. La diffusion en direct est une industrie de divertissement de niche lucrative, avec des milliers d'utilisateurs innocents diffusant des loisirs avec des amis, des jeux de société au mukbang (manger social), aux jeux vidéo. La diffusion en direct est importante pour les militants des pays autoritaires, leur permettant de partager des images de témoins oculaires de crimes, et modifier les relations de pouvoir. Une interdiction de la diffusion en direct empêcherait une grande partie de cette activité.
Nous avons besoin d'une nouvelle approche
Les défis de Facebook et YouTube pour résoudre le problème des crimes haineux diffusés en direct nous disent quelque chose d'important. Nous avons besoin d'un plus ouvert, approche transparente de la modération. Les plateformes doivent parler ouvertement de la façon dont ce travail est fait, et être prêt à intégrer les commentaires de nos gouvernements et de la société en général.
Un bon point de départ est les principes de Santa Clara, générés initialement à partir d'une conférence de modération de contenu tenue en février 2018 et mis à jour en mai 2018. Ceux-ci offrent une base solide pour la réforme, en déclarant :
Une approche plus socialement responsable des rôles des plates-formes en tant que modérateurs du discours public nécessite de s'éloigner du secret de la boîte noire auquel les plates-formes sont habituées et de s'orienter vers des discussions publiques plus approfondies sur la modération du contenu.
À la fin, une plus grande transparence peut faciliter un paysage politique moins réactif, où la politique publique et l'opinion ont une meilleure compréhension des complexités de la gestion des technologies de communication nouvelles et innovantes.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.