En ce 16 mai, 2012, fichier photo, le logo Facebook est affiché sur un iPad à Philadelphie. Facebook pense que son système de police est meilleur pour éliminer la violence graphique, la nudité gratuite et la propagande terroriste de son réseau social qu'à éliminer les racistes, sexistes et autres remarques haineuses. L'auto-évaluation du mardi, 15 mai, 2018, est intervenu trois semaines après que Facebook a tenté de donner une explication plus claire des types de publications qu'il ne tolérerait pas. (AP Photo/Matt Rourke, Déposer)
Se débarrasser du raciste, Les remarques sexistes et autres remarques haineuses sur Facebook sont plus difficiles que d'éliminer d'autres types de messages inacceptables, car les programmes informatiques butent toujours sur les nuances du langage humain, la société a révélé mardi.
Facebook a également publié des statistiques qui ont quantifié à quel point les faux comptes sont devenus omniprésents sur son service influent, malgré une politique de longue date exigeant que les gens créent des comptes sous leur identité réelle.
D'octobre à décembre seulement, Facebook a désactivé près de 1,3 milliard de comptes, et cela ne compte même pas toutes les fois où l'entreprise a bloqué de faux profils avant qu'ils ne puissent être configurés.
Si l'entreprise n'avait pas fermé tous ces faux comptes, son audience d'utilisateurs mensuels aurait dépassé ses 2,2 milliards actuels et aurait probablement créé plus de matériel potentiellement offensant à éliminer pour Facebook.
L'auto-évaluation de Facebook a montré que son système de filtrage est bien meilleur pour éliminer la violence graphique, nudité gratuite et propagande terroriste. Les outils automatisés ont détecté 86 à 99,5% des violations identifiées par Facebook dans ces catégories.
Pour les propos haineux, Les examinateurs humains et les algorithmes informatiques de Facebook n'ont identifié que 38 % des violations. Le reste est venu après que les utilisateurs de Facebook ont signalé le contenu incriminé pour examen.
En tout, Facebook a pris des mesures sur près de 1,6 milliard de contenus au cours des six mois se terminant en mars, une infime fraction de toute l'activité sur son réseau social, selon l'entreprise.
Le rapport a marqué la première ventilation de Facebook sur la quantité de matériel qu'il supprime pour violation de ses politiques. Il n'a pas révélé combien de temps il faut à Facebook pour supprimer du matériel violant ses normes. Le rapport ne couvre pas non plus la quantité de contenu inapproprié que Facebook a manqué.
"Même s'ils suppriment 100 millions de messages choquants, il y en aura un ou deux qui auront des trucs vraiment mauvais et ce seront ceux dont tout le monde finira par parler aux informations de la télévision par câble, " a déclaré Timothée Carone, qui enseigne la technologie à l'Université de Notre Dame.
Au lieu d'essayer de déterminer la quantité de matériel incriminé qu'il n'a pas attrapé, Facebook a fourni une estimation de la fréquence à laquelle il pense que les utilisateurs ont vu des publications qui enfreignent ses normes, y compris le contenu que son système de filtrage n'a pas détecté. Par exemple, l'entreprise a estimé que pour 10, 000 fois que les gens ont regardé du contenu sur son réseau social, 22 à 27 des vues peuvent avoir inclus des messages qui incluaient de la violence graphique inadmissible.
Le rapport n'aborde pas non plus la manière dont Facebook aborde un autre problème épineux :la prolifération de fausses nouvelles plantées par des agents russes et d'autres fabricants essayant d'influencer les élections et l'opinion publique.
Les faux comptes sur Facebook ont attiré plus d'attention parce que des agents russes les ont utilisés pour acheter des publicités afin d'essayer d'influencer les élections de 2016 aux États-Unis.
Même s'il s'est concentré sur la fermeture de faux comptes, Facebook a déclaré que 3 à 4 % de ses utilisateurs mensuels actifs sont des faux. Cela signifie que jusqu'à 88 millions de faux comptes Facebook passaient encore entre les mailles du système de police de l'entreprise jusqu'en mars.
Il n'est pas surprenant que les programmes automatisés de Facebook aient la plus grande difficulté à essayer de comprendre les différences entre les opinions autorisées et le langage méprisable qui franchit la ligne, dit Carone.
"C'est comme essayer de trouver l'équivalent entre crier 'Au feu!' dans un théâtre bondé quand il n'y en a pas et l'équivalent de dire quelque chose qui est inconfortable mais qui relève de la liberté d'expression, " il a dit.
Facebook a déclaré avoir supprimé 2,5 millions de contenus considérés comme des discours de haine inacceptables au cours des trois premiers mois de cette année, contre 1,6 million au trimestre précédent. La société a attribué une meilleure détection, même s'il est dit que les programmes informatiques ont du mal à comprendre le contexte et le ton de la langue.
Facebook a supprimé 3,4 millions de scènes de violence graphique au cours des trois premiers mois de cette année, près du triple du 1,2 million au cours des trois mois précédents. Dans ce cas, une meilleure détection n'était qu'une partie de la raison. Facebook a déclaré que les utilisateurs publiaient de manière plus agressive des images de violence dans des endroits comme la Syrie déchirée par la guerre.
La transparence accrue vient comme le Menlo Park, Californie, L'entreprise tente de réparer un scandale de confidentialité déclenché par des politiques lâches qui ont permis à une société d'exploration de données liée à la campagne du président Donald Trump de 2016 de collecter des informations personnelles sur pas moins de 87 millions d'utilisateurs. Le filtrage du contenu n'a rien à voir avec la protection de la vie privée, bien que, et vise à maintenir une atmosphère familiale pour les utilisateurs et les annonceurs.
© 2018 La Presse Associée. Tous les droits sont réservés.