• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les entreprises technologiques se démènent pour supprimer la vidéo de tournage en Nouvelle-Zélande

    Cette combinaison d'images montre des logos pour les entreprises de gauche, Twitter, YouTube et Facebook. Ces sociétés Internet et d'autres disent qu'elles s'efforcent de supprimer les séquences vidéo filmées par un homme armé lors de la fusillade d'une mosquée néo-zélandaise qui étaient largement disponibles sur les réseaux sociaux quelques heures après l'horrible attaque. (Photos AP/Fichier)

    Les sociétés Internet se sont précipitées vendredi pour supprimer la vidéo graphique filmée par un homme armé lors de la fusillade d'une mosquée néo-zélandaise qui était largement disponible sur les réseaux sociaux pendant des heures après l'horrible attaque.

    Facebook a déclaré avoir interrompu une diffusion en direct de la fusillade et supprimé les comptes Facebook et Instagram du tireur après avoir été alerté par la police. Au moins 49 personnes ont été tuées dans deux mosquées de Christchurch, La troisième plus grande ville de Nouvelle-Zélande.

    À l'aide de ce qui semblait être une caméra montée sur un casque, le tireur a diffusé en direct dans des détails horribles 17 minutes de l'attaque contre des fidèles à la mosquée Al Noor, où au moins 41 personnes sont mortes. Plusieurs autres fidèles ont été tués dans une deuxième mosquée peu de temps après.

    Le tireur a également laissé un manifeste de 74 pages qu'il a publié sur les réseaux sociaux sous le nom de Brenton Tarrant, s'identifiant comme un nationaliste australien et blanc de 28 ans qui cherchait à venger les attaques en Europe perpétrées par des musulmans.

    "Nos pensées vont aux victimes, leurs familles et la communauté touchée par cet acte horrible, " La porte-parole de Facebook Nouvelle-Zélande, Mia Garlick, a déclaré dans un communiqué.

    Facebook "supprime tout éloge ou soutien pour le crime et le tireur ou les tireurs dès que nous en sommes conscients, ", a-t-elle déclaré. "Nous continuerons à travailler directement avec la police néo-zélandaise au fur et à mesure que leur réponse et leur enquête se poursuivent."

    Twitter, Le propriétaire de YouTube, Google et Reddit, s'efforçaient également de supprimer les images de leurs sites.

    La fureur souligne une fois de plus la vitesse à laquelle le contenu graphique et dérangeant d'une tragédie peut se propager dans le monde et comment les géants de la technologie de la Silicon Valley se débattent toujours pour empêcher que cela ne se produise.

    Des tabloïds britanniques tels que The Daily Mail et The Sun ont publié des captures d'écran et des extraits de vidéos sur leurs sites Web.

    Un journaliste a tweeté que plusieurs personnes lui avaient envoyé la vidéo via l'application de messagerie WhatsApp appartenant à Facebook.

    La police néo-zélandaise a exhorté les gens à ne pas partager les images, et de nombreux internautes ont appelé les entreprises technologiques et les sites d'information à retirer le matériel.

    Certaines personnes ont exprimé leur indignation sur Twitter que les vidéos circulaient encore des heures après l'attaque.

    Dans cette image de la vidéo diffusée en direct vendredi, 15 mars, 2019, un homme armé qui a utilisé le nom Brenton Tarrant sur les réseaux sociaux prend une arme à l'arrière de sa voiture avant la fusillade de la mosquée de Christchurch, Nouvelle-Zélande. (Vidéo du tireur via AP)

    "Google incite activement à la violence, " a tweeté la journaliste britannique Carole Cadwalladr avec une capture d'écran des résultats de recherche de la vidéo.

    La diffusion de la vidéo souligne le défi pour Facebook même après avoir intensifié ses efforts pour garder le contenu inapproprié et violent hors de sa plate-forme. En 2017, il a annoncé qu'il en embaucherait 3, 000 personnes pour revoir les vidéos et autres publications, au dessus des 4, 500 personnes Facebook s'occupe déjà d'identifier les éléments criminels et autres éléments douteux en vue de leur suppression.

    Mais ce n'est qu'une goutte dans le seau de ce qui est nécessaire pour contrôler la plate-forme de médias sociaux, dit Siva Vaidhyanathan, auteur de "Antisocial Media:Comment Facebook nous déconnecte et sape la démocratie."

    Si Facebook voulait surveiller chaque diffusion en direct pour éviter que du contenu perturbant ne soit diffusé en premier lieu, "ils devraient embaucher des millions de personnes, " quelque chose qu'il n'est pas prêt à faire, dit Vaidhyanathan, qui enseigne les études sur les médias à l'Université de Virginie.

    "Nous avons certaines entreprises qui ont construit des systèmes qui ont servi par inadvertance la cause de la haine violente dans le monde, " dit Vaidhyanathan.

    Facebook et YouTube ont été conçus pour partager des photos de bébés, chiots et autres choses saines, il a dit, "mais ils ont été agrandis à une telle échelle et construits sans aucune protection, de sorte qu'ils étaient faciles à détourner par les pires éléments de l'humanité."

    Avec des milliards d'utilisateurs, Facebook et YouTube sont "ingouvernables" à ce stade, dit Vaidhyanathan, qui a qualifié le service de diffusion en direct de Facebook d'"idée profondément stupide".

    Dans des séquences qui ressemblaient parfois à des scènes d'un jeu vidéo de tir à la première personne, le tireur de la mosquée a été vu en train de pulvériser des balles sur des fidèles terrifiés, parfois re-tirer sur des gens qu'il avait déjà abattus.

    Il est ensuite sorti, tirer sur des gens sur un trottoir. Des cris d'enfants pouvaient être entendus au loin alors qu'il se dirigeait vers sa voiture pour prendre un autre fusil, puis retourna à la mosquée, où au moins deux douzaines de personnes pouvaient être vues gisant dans des mares de sang.

    Il est retourné dehors, tirer sur une femme, remonté dans sa voiture, et s'éloigna.

    La vidéo diffusée en direct rappelait des jeux vidéo de tir à la première personne violents tels que "Counter-Strike" ou "Doom" alors que le tireur contournait les coins et pénétrait calmement dans les pièces en tirant sur des victimes sans défense. De nombreux jeux de tir permettent aux joueurs de basculer entre les armes à courte portée et à longue portée, et le tireur est passé d'un fusil de chasse à un fusil pendant la vidéo, recharger au fur et à mesure qu'il se déplaçait.

    À un moment donné, le tireur s'est même arrêté pour saluer l'une des plus grandes personnalités de YouTube, connu sous le nom de PewDiePie, avec des dizaines de millions de followers, qui a fait des blagues critiquées comme antisémites et a publié des images nazies dans ses vidéos.

    Repos de fleurs à un barrage routier, en tant qu'officier de police monte la garde près de la mosquée de Linwood, site de l'une des fusillades de masse dans deux mosquées de Christchurch, Nouvelle-Zélande, Samedi, 16 mars 2019. (Photo AP/Mark Baker)

    "Rappelles toi, les gars, abonnez-vous à PewDiePie, " dit le tireur.

    La référence apparemment incongrue au vlogger suédois connu pour ses commentaires sur les jeux vidéo ainsi que ses références racistes était immédiatement reconnaissable par nombre de ses 86 millions de followers.

    La sensation YouTube s'est engagée dans une bataille en ligne pour savoir quelle chaîne est la plus abonnée, et ses abonnés ont commencé à publier des messages encourageant les autres à "s'abonner à PewDiePie".

    PewDiePie, de son vrai nom Félix Kjellberg, a déclaré sur Twitter qu'il se sentait "absolument écoeuré" que le tireur présumé l'ait mentionné pendant la diffusion en direct. "Mon cœur et mes pensées vont aux victimes, les familles et toutes les personnes concernées, " il a dit.

    Les heures qu'il a fallu pour retirer la vidéo violente et le manifeste sont "un autre œil noir majeur" pour les plateformes de médias sociaux, dit Dan Ives, directeur général de Wedbush Securities.

    La diffusion du saccage "souligne le besoin urgent pour les plateformes médiatiques telles que Facebook et Twitter d'utiliser davantage d'intelligence artificielle ainsi que des équipes de sécurité pour repérer ces événements avant qu'il ne soit trop tard, " dit Ives.

    Quelques heures après le tournage, Reddit a supprimé deux subreddits connus pour partager des vidéos et des photos de personnes tuées ou blessées – R/WatchPeopleDie et R/Gore – apparemment parce que les utilisateurs partageaient la vidéo de l'attaque de la mosquée.

    "Nous sommes très clairs dans les conditions d'utilisation de notre site que la publication de contenu qui incite ou glorifie la violence fera bannir les utilisateurs et les communautés de Reddit, ", a-t-il déclaré dans un communiqué. "Les subreddits qui ne respectent pas ces règles à l'échelle du site seront interdits."

    Les vidéos et les publications qui glorifient la violence sont contraires aux règles de Facebook, mais Facebook a suscité des critiques pour avoir répondu lentement à de tels éléments, y compris la vidéo d'un meurtre à Cleveland et le meurtre en direct d'un bébé en Thaïlande. Ce dernier était en place pendant 24 heures avant d'être retiré.

    Dans la plupart des cas, ce matériel n'est examiné en vue d'une éventuelle suppression que si les utilisateurs se plaignent. Les reportages et les messages condamnant la violence sont autorisés. Il s'agit d'un exercice d'équilibre délicat pour l'entreprise. Facebook dit qu'il ne veut pas agir comme un censeur, comme des vidéos de violence, tels que ceux documentant la brutalité policière ou les horreurs de la guerre, peut servir un objectif important.

    © 2019 La Presse Associée. Tous les droits sont réservés.




    © Science https://fr.scienceaq.com