• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les dirigeants techniques disent qu'ils agissent plus rapidement sur le contenu extrémiste

    De gauche à droite Monika Bickert, responsable de la gestion des politiques mondiales chez Facebook, Nick Pickles, directeur des politiques publiques pour Twitter, Derek Slater, directeur mondial de la politique de l'information chez Google, et le vice-président principal des programmes de la Ligue anti-diffamation, George Selim, témoignent devant le Sénat du commerce, Comité des sciences et des transports sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    Dirigeants de Facebook, Google et Twitter ont déclaré mercredi au Congrès qu'ils étaient devenus meilleurs et plus rapides pour détecter et supprimer le contenu extrémiste violent sur leurs plateformes de médias sociaux face aux fusillades de masse alimentées par la haine.

    Interrogé en audition par la commission sénatoriale du commerce, les dirigeants ont déclaré qu'ils dépensaient de l'argent dans la technologie pour améliorer leur capacité à signaler le contenu extrémiste et qu'ils prenaient l'initiative de contacter les autorités chargées de l'application des lois pour tenter d'éviter d'éventuels incidents violents.

    "Nous continuerons d'investir dans les gens et la technologie pour relever le défi, " a déclaré Derek Slater, Directeur de la politique d'information de Google.

    Les législateurs veulent savoir ce que font les entreprises pour supprimer les discours de haine de leurs plateformes et comment elles se coordonnent avec les forces de l'ordre.

    "Nous vivons une vague de haine. … Les médias sociaux sont utilisés pour amplifier cette haine, " a déclaré la sénatrice Maria Cantwell de l'État de Washington, le démocrate senior du panel.

    Les dirigeants de l'entreprise ont déclaré que leur technologie s'améliore pour identifier et supprimer plus rapidement les contenus suspects.

    Sur les 9 millions de vidéos supprimées de YouTube de Google au deuxième trimestre de l'année, 87 % ont été signalés par une machine utilisant l'intelligence artificielle, et beaucoup d'entre eux ont été abattus avant d'avoir une seule vue, dit Slater.

    De gauche à droite Monika Bickert, responsable de la gestion des politiques mondiales chez Facebook, Nick Pickles, directeur des politiques publiques pour Twitter, et Derek Slater, le directeur mondial de la politique de l'information chez Google témoigne devant le Sénat du Commerce, Comité des sciences et des transports sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    Après la fusillade dans un lycée de février 2018 en Floride qui a fait 17 morts, Google a commencé à contacter de manière proactive les autorités chargées de l'application des lois pour voir comment elles peuvent mieux se coordonner, dit Slater. Nikolas Cruz, le suspect de tir, avait posté sur une page YouTube au préalable, "Je vais être un tireur d'école professionnel, ", ont déclaré les autorités.

    Facebook a annoncé cette semaine qu'il travaillerait avec les forces de l'ordre pour former ses systèmes d'IA à reconnaître les vidéos d'événements violents dans le cadre d'un effort plus large pour réprimer l'extrémisme. Les systèmes d'intelligence artificielle de Facebook n'ont pas été en mesure de détecter la vidéo diffusée en direct de la fusillade dans une mosquée en Nouvelle-Zélande en mars, qui a fait 50 morts. Le suprémaciste blanc autoproclamé accusé de la fusillade avait retransmis l'attaque en direct.

    L'effort utilisera des images de caméra corporelle de la formation aux armes à feu fournie par les gouvernements et les organismes d'application de la loi des États-Unis et du Royaume-Uni.

    Monika Bickert, responsable de la gestion des politiques mondiales chez Facebook, témoigne devant le Sénat du Commerce, Comité des sciences et des transports lors d'une audition sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    Facebook étend également sa définition du terrorisme pour inclure non seulement les actes de violence visant à atteindre un objectif politique ou idéologique, mais aussi des tentatives de violence, en particulier lorsqu'elles visent des civils dans l'intention de contraindre et d'intimider. La société a connu un succès mitigé dans ses efforts pour limiter la diffusion de matériel extrémiste sur son service.

    Facebook semble avoir fait peu de progrès, par exemple, sur ses systèmes automatisés pour supprimer le contenu interdit glorifiant des groupes comme l'État islamique au cours des quatre mois écoulés depuis que l'Associated Press a détaillé comment les pages Facebook générées automatiquement pour les entreprises aident les extrémistes du Moyen-Orient et les suprémacistes blancs aux États-Unis. Les nouveaux détails proviennent d'une mise à jour de une plainte à la Securities and Exchange Commission que le National Whistleblower Center prévoit de déposer cette semaine.

    Facebook a déclaré en réponse qu'il supprime toutes les pages générées automatiquement "qui violent nos politiques. Bien que nous ne puissions pas attraper tout le monde, nous restons vigilants dans cet effort."

    Monika Bickert, responsable de la gestion des politiques mondiales chez Facebook, rejoint à droite par Nick Pickles, directeur des politiques publiques pour Twitter, témoigne devant le Sénat du Commerce, Comité des sciences et des transports lors d'une audition sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    Monika Bickert, responsable de la gestion des politiques mondiales de Facebook, a déclaré lors de l'audience du Sénat que l'entreprise a augmenté sa capacité à détecter le terrorisme, la violence et les discours de haine beaucoup plus tôt. "Nous savons que les gens doivent être en sécurité, " dit-elle. Bickert a noté que Facebook supprime tout contenu qui encourage la violence, suprématie blanche ou nationalisme ainsi qu'indiquant le suicide, et désactive les comptes lorsque des menaces sont détectées.

    directeur de la stratégie de politique publique de Twitter, Nick Pickles, a déclaré que le service avait suspendu plus de 1,5 million de comptes pour la promotion du terrorisme entre le 1er août. 2015, et 31 décembre 2018. Plus de 90 % des comptes sont suspendus grâce aux mesures proactives de Twitter, il a dit, sans attendre les rapports du gouvernement et des forces de l'ordre.

    le sénateur Rick Scott, R-Fla., a demandé à Pickles pourquoi Twitter n'avait pas suspendu le compte du leader socialiste vénézuélien Nicolas Maduro, qui a présidé à une aggravation de la crise économique et politique et a menacé les politiciens de l'opposition de poursuites pénales.

    • Monika Bickert, responsable de la gestion des politiques mondiales chez Facebook, rejoint à droite par Nick Pickles, directeur des politiques publiques pour Twitter, témoigne devant le Sénat du Commerce, Comité des sciences et des transports lors d'une audition sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    • Derek Slater, directeur mondial de la politique de l'information chez Google, écoute avant de témoigner devant un Sénat du Commerce, Audition du Comité des sciences et des transports sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    • De gauche à droite Monika Bickert, responsable de la gestion des politiques mondiales chez Facebook, Nick Pickles, directeur des politiques publiques pour Twitter, et Derek Slater, le directeur mondial de la politique de l'information chez Google témoigne devant le Sénat du Commerce, Comité des sciences et des transports sur la façon dont les entreprises d'Internet et de médias sociaux sont prêtes à contrecarrer le terrorisme et l'extrémisme, Mercredi, 18 septembre, 2019, sur la colline du Capitole à Washington. (AP Photo/J. Scott Applewhite)

    Si Twitter a supprimé le compte de Maduro, "cela ne changerait pas les faits sur le terrain, ", a déclaré Pickles.

    Scott a déclaré qu'il n'était pas d'accord car le compte de Maduro avec quelque 3,7 millions d'adeptes lui confère une légitimité en tant que leader mondial.

    © 2019 La Presse Associée. Tous les droits sont réservés.




    © Science https://fr.scienceaq.com