Cette combinaison d'images montre des logos pour les entreprises de gauche, Twitter, YouTube et Facebook. Ces sociétés Internet et d'autres disent qu'elles s'efforcent de supprimer les séquences vidéo filmées par un homme armé lors de la fusillade d'une mosquée néo-zélandaise qui étaient largement disponibles sur les réseaux sociaux quelques heures après l'horrible attaque. (Photos/Fichier AP)
Pourquoi Facebook a-t-il diffusé une vidéo en direct de la fusillade d'une mosquée néo-zélandaise pendant 17 minutes ? Personne n'a alerté l'entreprise pendant que cela se produisait ?
Facebook dit non. Selon son avocat général adjoint, Chris Sonderby, aucune des quelque 200 personnes qui ont regardé la vidéo en direct ne l'a signalée aux modérateurs. Dans un article de blog du mardi, Sonderby a déclaré que le premier rapport d'utilisateur n'était arrivé que 12 minutes après la fin de la diffusion.
Tout cela soulève des questions supplémentaires, parmi lesquelles, pourquoi tant de gens regardaient sans rien dire, si Facebook compte trop sur les étrangers et les machines pour signaler les problèmes, et si les utilisateurs et les responsables de l'application des lois savent même comment contacter Facebook pour s'inquiéter de ce qu'ils voient sur le service.
"Quand nous voyons les choses à travers nos téléphones, nous imaginons qu'ils sont comme une émission de télévision, " dit Siva Vaidhyanathan, professeur d'études sur les médias à l'Université de Virginie. « Ils sont à distance, et nous n'avons aucun pouvoir."
Facebook a déclaré avoir supprimé la vidéo « quelques minutes » après avoir été averti par la police néo-zélandaise. Mais depuis, Facebook et d'autres sociétés de médias sociaux ont dû faire face à des copies publiées par d'autres.
Le suspect de tir a soigneusement modélisé son attaque pour une ère d'Internet, alors qu'il diffusait en direct le meurtre de 50 personnes dans deux mosquées de Christchurch, Nouvelle-Zélande.
Tim Cigelske, qui enseigne les médias sociaux à Marquette University à Milwaukee, a déclaré que même si les téléspectateurs ont les mêmes obligations morales d'aider qu'un spectateur dans le monde physique, les gens ne savent pas nécessairement quoi faire.
"C'est comme appeler le 911 en cas d'urgence, " a-t-il dit. " Nous avons dû former des gens et leur faciliter la tâche. Vous devez former les gens d'une nouvelle manière si vous voyez une urgence se produire non pas en personne mais en ligne."
Pour signaler une vidéo en direct, un utilisateur doit savoir cliquer sur un petit ensemble de trois points gris sur le côté droit de la publication. Un utilisateur qui clique sur « signaler une vidéo en direct » obtient un choix de types de contenu répréhensible parmi lesquels choisir, y compris la violence, intimidation et harcèlement. Les utilisateurs sont également invités à contacter les forces de l'ordre si quelqu'un est en danger immédiat.
Facebook ne semble pas non plus publier d'informations publiques indiquant aux forces de l'ordre comment signaler une vidéo dangereuse ou criminelle. La société dispose d'une page intitulée "informations pour les autorités chargées de l'application des lois, " mais il décrit simplement les procédures pour faire des demandes légales d'enregistrement de compte d'utilisateur. Facebook n'a pas immédiatement répondu à une demande de commentaire et à des questions sur ses communications avec la police.
Facebook utilise l'intelligence artificielle pour détecter les contenus répréhensibles, tout en comptant sur le public pour signaler le contenu qui enfreint ses normes. Ces rapports sont ensuite envoyés à des réviseurs humains, a déclaré la société dans une vidéo de novembre.
La vidéo a également expliqué comment elle utilise la "vision par ordinateur" pour détecter 97% de la violence graphique avant que quiconque ne la signale. Cependant, il est moins clair comment ces systèmes s'appliquent à la diffusion en direct de Facebook.
Les experts disent que la vidéo en direct pose des défis uniques, et les plaintes concernant les suicides en direct, les meurtres et les coups reviennent régulièrement. Néanmoins, ils disent que Facebook ne peut pas détourner la responsabilité.
"S'ils ne peuvent pas assumer la responsabilité, alors c'est de leur faute s'ils continuent à fournir ce service, " dit Mary Anne Franks, professeur de droit à l'Université de Miami.
Un policier monte la garde devant la mosquée Masjid Al Noor à Christchurch, Nouvelle-Zélande, Dimanche, Le 17 mars, 2019, où l'une des deux fusillades de masse a eu lieu. Les habitants sinistrés de la Nouvelle-Zélande ont contacté les musulmans de leurs quartiers et du pays samedi, faire preuve de gentillesse envers une communauté en souffrance alors qu'un suprémaciste blanc de 28 ans se tenait silencieusement devant un juge, accusé de fusillades massives dans deux mosquées qui ont fait des dizaines de morts. (Photo AP/Vincent Yu)
Elle qualifie « d'incroyablement offensant et inapproprié » de rejeter la responsabilité sur les utilisateurs soumis à une vidéo traumatisante.
Dans certains cas, il n'est pas clair au départ si une vidéo ou une autre publication enfreint les normes de Facebook, en particulier sur un service avec une gamme de langues et de normes culturelles. L'indécision ne semblait pas être le cas ici, bien que. Facebook ne l'a tout simplement pas su à temps.
Sonderby de Facebook a déclaré dans un article de blog de mardi que la société "a désigné les deux fusillades comme des attaques terroristes, ce qui signifie que toute louange, soutien et représentation des événements » sont des violations.
Vaidhyanathan a déclaré que la fonctionnalité de vidéo en direct de Facebook s'est transformée en une bête sur laquelle Facebook ne peut pas faire grand-chose "à moins d'appuyer sur l'interrupteur". Bien que Facebook ait embauché plus de modérateurs pour compléter sa détection de machines et ses rapports d'utilisateurs, "vous ne pouvez pas embaucher assez de personnes" pour contrôler un service avec 2,3 milliards d'utilisateurs.
"Les gens trouveront toujours de nouvelles façons d'exprimer la haine et d'inciter à la violence, " il a dit.
Le Premier ministre néo-zélandais Jacinda Ardern a exprimé sa frustration que les images soient restées en ligne quatre jours après le massacre.
Les machines peuvent détecter quand les utilisateurs essaient de republier des vidéos interdites en faisant correspondre des modèles, ou empreintes digitales, dans les fichiers. Mais les utilisateurs déterminés à contourner ces contrôles peuvent apporter de petites modifications, comme peaufiner la couleur ou la vitesse de la vidéo.
Le Forum Internet mondial de lutte contre le terrorisme, un groupe de sociétés Internet mondiales dirigé par Facebook, Youtube, Microsoft et Twitter, a déclaré avoir identifié 800 versions différentes et les avoir ajoutées à une base de données partagée utilisée pour bloquer les images et vidéos terroristes violentes.
Sonderby a déclaré que certaines variantes sont difficiles à détecter et que Facebook s'est « étendu à des systèmes de détection supplémentaires, y compris l'utilisation de la technologie audio ».
Dans une série de tweets un jour après la fusillade, L'ancien responsable de la sécurité de Facebook, Alex Stamos, a posé le défi aux entreprises technologiques alors qu'elles se précipitaient pour suivre les nouvelles versions de la vidéo.
"Ce que vous voyez sur les principales plates-formes, c'est l'eau qui fuit autour de milliers de doigts enfoncés dans un barrage, " il a dit.
Stamos a estimé que les grandes entreprises technologiques bloquent le téléchargement de plus de 99% des vidéos, "ce qui n'est pas suffisant pour le rendre impossible à trouver."
© 2019 La Presse Associée. Tous les droits sont réservés.