Facebook a déclaré avoir " pris des mesures " sur 1,9 million de contenus liés à l'EI ou à al-Qaïda au cours des trois premiers mois de cette année, près du double du montant du trimestre précédent
Facebook a déclaré lundi que de nouveaux outils de détection utilisés par son équipe antiterroriste détectent et suppriment rapidement la propagande extrémiste pour le groupe État islamique et al-Qaïda.
Le principal réseau social a « agi » sur 1,9 million de contenus liés à l'EI ou à al-Qaïda au cours des trois premiers mois de cette année, soit près du double du montant du trimestre précédent, selon la vice-présidente de la gestion des politiques mondiales Monika Bickert et le responsable mondial de la politique antiterroriste Brian Fishman.
"Prendre part, " a déclaré la société, impliquait généralement de supprimer « la grande majorité de ce contenu ».
Il "a ajouté un avertissement à une petite partie qui a été partagée à des fins d'information ou de contre-discours, " Bickert et Fishman ont déclaré dans un article en ligne.
Dans certains cas, profils entiers, pages, ou des groupes ont été supprimés pour avoir enfreint les politiques de Facebook, rendant tout le contenu inclus indisponible.
« Nous avons fait des progrès importants en trouvant et en supprimant leur propagande rapidement et à grande échelle, " Bickert et Fishman ont déclaré.
"Nous ne nous faisons aucune illusion que le travail est fait ou que les progrès que nous avons accomplis sont suffisants."
Facebook a crédité la technologie de détection et une équipe de lutte contre le terrorisme qui est passée de 150 personnes il y a environ 10 mois à 200 personnes.
Facebook a défini le terrorisme comme « toute organisation non gouvernementale qui se livre à des actes de violence prémédités contre des personnes ou des biens pour intimider une population civile, gouvernement, ou une organisation internationale afin d'atteindre un objectif politique, religieux, ou objectif idéologique.
Bickert et Fishman ont soutenu que l'intention de l'entreprise est d'être neutre sur l'idéologie et la politique, ce qui signifie que la définition du terrorisme s'applique également à tout, de l'extrémisme religieux et du séparatisme violent à la suprématie blanche ou à l'environnementalisme militant.
"Il s'agit de savoir s'ils utilisent la violence pour poursuivre ces objectifs, " Bickert et Fishman ont déclaré.
Jusqu'à présent cette année, le temps médian qu'il a fallu aux nouveaux outils de détection pour découvrir le contenu terroriste fraîchement téléchargé était inférieur à une minute, selon les dirigeants.
"Les groupes terroristes essaient toujours de contourner nos systèmes, donc nous devons constamment nous améliorer, " Bickert et Fishman ont déclaré.
"Nous apprenons de chaque faux pas, expérimenter de nouvelles méthodes de détection et travailler pour élargir les groupes terroristes que nous ciblons. »
Au début de ce mois, Twitter a déclaré avoir suspendu plus d'un million de comptes pour "promotion du terrorisme" depuis 2015, affirmant que ses efforts ont commencé à faire de la plate-forme "un endroit indésirable" pour appeler à la violence.
Dans son dernier rapport de transparence, Twitter a déclaré avoir suspendu 274, 460 comptes entre juillet et décembre 2017 « pour des violations liées à la promotion du terrorisme ».
Ce chiffre est en baisse de 8,4 % par rapport à la période de référence précédente et constitue la deuxième baisse consécutive, a déclaré un communiqué sur Twitter.
Twitter et Facebook ont subi des pressions pour réprimer les djihadistes et autres appelant à des attaques violentes, tout en maintenant des plateformes ouvertes pour la liberté d'expression.
Au cours de la dernière période de déclaration de six mois, Twitter a déclaré que 93% des comptes suspendus étaient « signalés par des outils propriétaires, " et que 74% ont été coupés avant leur premier tweet.
© 2018 AFP