Facebook peut supprimer du contenu, ajouter des avertissements si le contenu peut déranger certains utilisateurs sans enfreindre les normes, ou aviser la police en cas de « spécifique, menace imminente et crédible pour la vie humaine"
Facebook a supprimé 583 millions de faux comptes au cours des trois premiers mois de 2018, le géant des médias sociaux a déclaré mardi, détaillant comment il applique les « normes communautaires » contre les images sexuelles ou violentes, propagande terroriste ou discours de haine.
Répondant aux appels à la transparence après le scandale de la confidentialité des données de Cambridge Analytica, Facebook a déclaré que ces fermetures venaient s'ajouter au blocage de millions de tentatives de création de faux comptes chaque jour.
Malgré cela, le groupe a déclaré que les faux profils représentaient encore 3 à 4 % de tous les comptes actifs.
Il prétendait détecter près de 100 % des spams et avoir supprimé 837 millions de messages assimilés au spam sur la même période.
Facebook a tiré ou giflé des avertissements sur près de 30 millions de messages contenant des images sexuelles ou violentes, propagande terroriste ou discours de haine au cours du premier trimestre.
Une technologie améliorée utilisant l'intelligence artificielle l'a aidé à agir sur 3,4 millions de messages contenant de la violence graphique, près de trois fois plus qu'au dernier trimestre de 2017.
Dans 85,6% des cas, Facebook a détecté les images avant d'être alerté par les utilisateurs, dit le rapport, publié le lendemain du jour où la société a déclaré qu'environ 200 applications avaient été suspendues sur sa plate-forme dans le cadre d'une enquête sur l'utilisation abusive des données personnelles des utilisateurs.
Le chiffre représente entre 0,22 et 0,27% du contenu total consulté par les plus de deux milliards d'utilisateurs de Facebook de janvier à mars.
"En d'autres termes, sur 10, 000 vues de contenu, une estimation de 22 à 27 contenait de la violence graphique, " dit le rapport.
Les réponses aux violations de règles incluent la suppression de contenu, ajouter des avertissements au contenu qui peuvent déranger certains utilisateurs sans enfreindre les normes de Facebook ; et notifier les forces de l'ordre en cas de « spécifique, menace imminente et crédible pour la vie humaine".
L'amélioration de l'informatique a également aidé Facebook à prendre des mesures contre 1,9 million de messages contenant de la propagande terroriste, une augmentation de 73 pour cent. Presque tous ont été traités avant qu'une alerte ne soit déclenchée, dit la société.
Facebook s'est excusé en mars pour avoir temporairement supprimé une publicité mettant en vedette la célèbre œuvre de l'artiste français Eugène Delacroix "La liberté guidant le peuple" car elle représente une femme aux seins nus
Il a attribué l'augmentation à l'utilisation accrue de la technologie de détection photo.
Les discours de haine sont plus difficiles à contrôler à l'aide de méthodes automatisées, cependant, car les discours de haine racistes ou homophobes sont souvent cités dans les publications par leurs cibles ou militants.
Le sarcasme a besoin d'un contact humain
"Il peut prendre un humain pour comprendre et interpréter avec précision des nuances comme... des commentaires autoréférentiels ou du sarcasme, " dit le rapport, notant que Facebook vise à "protéger et respecter à la fois l'expression et la sécurité personnelle".
Facebook a pris des mesures contre 2,5 millions de contenus de discours haineux au cours de la période, une augmentation de 56 par rapport à octobre-décembre. Mais seulement 38% avaient été détectés grâce aux efforts de Facebook, le reste signalé par les utilisateurs.
Les publications qui occupent le plus les critiques de Facebook sont celles qui montrent de la nudité d'adultes ou une activité sexuelle, en dehors de la pornographie enfantine, ce qui n'est pas couvert par le rapport.
Quelque 21 millions de ces postes ont été traités au cours de la période, un nombre similaire à octobre-décembre 2017.
Cela représentait moins de 0,1 % du contenu visionné, qui comprend du texte, images, vidéos, liens, des vidéos en direct ou des commentaires sur des publications—Facebook a dit :ajoutant qu'il avait traité près de 96% des cas avant d'en être alerté.
Facebook a été critiqué pour avoir montré trop de zèle sur ce front, comme la suppression d'images d'œuvres d'art tolérées selon ses propres règles.
En mars, Facebook s'est excusé d'avoir temporairement supprimé une publicité mettant en vedette la célèbre œuvre de l'artiste français Eugène Delacroix, "La liberté guidant le peuple", car elle représente une femme aux seins nus.
La responsable de la gestion des politiques mondiales de Facebook, Monika Bicket, a déclaré que le groupe s'était engagé à en recruter 3, 000 collaborateurs supplémentaires pour porter à 7 les effectifs dédiés au respect des normes 500 en ce début d'année.
© 2018 AFP