Facebook investit massivement dans l'intelligence artificielle pour repérer automatiquement les contenus interdits
Facebook a déclaré mercredi que son logiciel devenait de plus en plus compétent pour espionner le contenu interdit sur le réseau social, puis travailler avec des humains pour supprimer rapidement les vidéos terroristes et plus encore.
"Alors que nous péchons du côté de la liberté d'expression, nous tirons généralement la ligne de tout ce qui pourrait entraîner un préjudice réel, " Le PDG de Facebook, Mark Zuckerberg, a déclaré lors d'un briefing sur le dernier rapport de l'entreprise sur la recherche de publications qui violent ses politiques.
"Ceci est une infime fraction du contenu sur Facebook et Instagram, et nous en retirons une grande partie avant que quiconque ne le voie. »
Facebook a beaucoup investi dans l'intelligence artificielle (IA) pour repérer automatiquement les contenus interdits, souvent avant qu'il ne soit vu par les utilisateurs, et des équipes humaines de réviseurs qui vérifient si le logiciel était sur la cible.
Facebook en a plus de 35, 000 personnes travaillant sur la sûreté et la sécurité, et dépense des milliards de dollars chaque année pour cette mission, selon Zuckerberg.
« Nos efforts portent leurs fruits, " a déclaré Zuckerberg. " Les systèmes que nous avons construits pour résoudre ces problèmes sont plus avancés. "
Lorsqu'il s'agit de détecter les discours de haine, Le logiciel Facebook trouve désormais automatiquement 80% du contenu supprimé, ce qui représente une amélioration considérable par rapport à il y a deux ans, lorsque presque tout ce matériel n'a pas été traité avant d'être signalé par les utilisateurs, selon la firme californienne.
Nuance de filet
Zuckerberg a noté que les discours de haine sont plus difficiles à détecter pour l'IA que la nudité dans les images ou les vidéos en raison de « nuances linguistiques » qui nécessitent un contexte qui pourrait rendre même les mots courants menaçants.
Ajoutez à cela des vidéos d'attaques motivées par des préjugés contre une race, le genre ou la religion pourraient être partagés pour condamner une telle violence plutôt que de la glorifier.
Le président-directeur général de Facebook, Mark Zuckerberg, témoigne devant le comité des services financiers de la Chambre le 23 octobre 2019
Les gens de Facebook continuent d'essayer de partager la vidéo d'une horrible attaque contre une mosquée à Christchurch, Nouvelle-Zélande, avec les systèmes de réseaux sociaux bloquant 95% de ces tentatives, selon les cadres.
Un tireur isolé a ouvert le feu sur deux mosquées de la ville de Christchurch, tuant et blessant des dizaines de musulmans en mars, diffuser les agressions en direct sur Facebook.
Facebook dispose d'experts en terrorisme au sein d'une équipe de plus de 350 personnes dédiées à empêcher les groupes terroristes d'utiliser le réseau social, selon la responsable de la gestion des politiques mondiales Monika Bickert.
Des systèmes perfectionnés pour trouver et supprimer le contenu interdit sur Facebook sont également utilisés sur Instagram, qui a intensifié ses efforts pour filtrer les contenus susceptibles d'encourager le suicide ou l'automutilation tout en permettant aux gens de partager ces expériences traumatisantes dans un esprit de rétablissement ou de guérison,
Les règles mises en place récemment sur Instagram ont ajouté des dessins et d'autres contenus fictifs à la liste pour interdire les images qui pourraient encourager le suicide ou l'automutilation.
Le service de partage d'images et de vidéos appartenant à Facebook au début de l'année a réprimé les images d'automutilation après qu'une adolescente britannique qui est allée en ligne pour lire sur le suicide s'est suicidée en 2017.
L'histoire des médias sociaux de la jeune fille de 14 ans a révélé qu'elle suivait des récits sur la dépression et le suicide.
L'affaire a suscité un vif débat en Grande-Bretagne sur le contrôle parental et la réglementation par l'État de l'utilisation des médias sociaux par les enfants.
Instagram n'a jamais autorisé les publications qui encouragent ou encouragent le suicide ou l'automutilation.
Avec un changement de règle au début de cette année, Instagram a commencé à supprimer les références au contenu non graphique lié aux personnes se blessant de ses recherches et de ses fonctionnalités de recommandation.
Les mesures visaient à rendre ces images plus difficiles à trouver pour les adolescents déprimés qui pourraient avoir des tendances suicidaires.
© 2019 AFP