• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les géants de la technologie sont confrontés à des questions sur les discours de haine entrant dans les débats

    Les membres des médias se réunissent pour une visite de la mise en scène pour le premier débat démocratique, Mercredi, 26 juin 2019. Dix candidats à la présidentielle, dirigé par la sénatrice Elizabeth Warren, sont sur le point de converger sur la scène du débat lors de la première nuit des débats démocrates pour offrir leurs arguments au peuple américain et tenter un moment d'évasion pour leurs campagnes. (Photo AP/Marta Lavandier)

    Dirigeants de Facebook, Google et Twitter ont été interrogés mercredi par un panel de la Chambre sur leurs efforts pour bloquer le contenu terroriste et la désinformation virale sur leurs plateformes de médias sociaux.

    L'examen intervient alors que les géants de la technologie renforcent les mesures de sécurité pour empêcher la désinformation en ligne ciblant les débats présidentiels démocrates à partir de mercredi soir.

    Les législateurs et les dirigeants de l'industrie technologique craignent que les débats ne soient ciblés par des parties russes ou d'autres parties hostiles pour fomenter un conflit politique en utilisant les médias sociaux, comme cela s'est produit lors des élections de 2016. Les responsables du renseignement américain ont déterminé que la Russie avait mené une vaste campagne de désinformation politique sur les réseaux sociaux pour influencer les élections, et ils ont à plusieurs reprises mis en garde contre la menace d'ingérence étrangère dans la politique américaine, surtout avant les élections.

    « Au début des débats présidentiels, nous nous appuyons sur nos efforts pour protéger la conversation publique et appliquer nos politiques contre la manipulation de la plate-forme, " Twitter a déclaré dans un communiqué mercredi. " C'est toujours une année électorale sur Twitter. "

    Facebook a déclaré qu'il disposera « d'une équipe dédiée surveillant de manière proactive les menaces et enquêtant sur tout signalement d'abus en temps réel d'ici à, pendant et après les débats."

    L'audition par le Homeland Security Committee a été provoquée par la fusillade dans une mosquée en Nouvelle-Zélande en mars qui a tué 50 personnes, attribué à un suprémaciste blanc autoproclamé qui a diffusé en direct les attaques sur Facebook.

    le représentant Bennie Thompson, Mlle., le président du jury, a noté que le massacre diffusé en direct s'est produit près de deux ans après Facebook, Twitter, Google et d'autres grandes entreprises technologiques ont créé un forum Internet mondial pour lutter contre la diffusion de contenu terroriste en ligne.

    "Je veux savoir comment vous allez empêcher le contenu comme la vidéo de l'attaque néo-zélandaise de se propager à nouveau sur vos plateformes, " a déclaré Thompson aux responsables de la politique d'information des trois sociétés.

    Thompson a déclaré qu'il souhaitait également savoir comment les entreprises s'employaient à empêcher les discours de haine et la désinformation de leurs plateformes.

    La controverse sur le nationalisme blanc et les discours de haine afflige les plateformes en ligne telles que Facebook et YouTube de Google depuis des années. En 2017, suite aux violences meurtrières à Charlottesville, Virginie, les géants de la technologie ont commencé à bannir les groupes extrémistes et les individus épousant les opinions de la suprématie blanche et soutenant la violence. Facebook a étendu l'interdiction aux nationalistes blancs.

    Mais les grandes entreprises technologiques sont désormais plus étroitement surveillées que jamais au Congrès, à la suite d'une série de scandales, notamment les erreurs de Facebook dans l'ouverture des données personnelles de millions d'utilisateurs à la campagne 2016 de Donald Trump. Le moteur de recherche dominant de Google et l'hyper collecte de données ont soulevé des problèmes de confidentialité et des accusations de la part des républicains de supprimer les points de vue conservateurs.

    Trump a renouvelé mercredi sa critique des géants de la technologie, insistant pour que leurs plateformes censurent les opinions conservatrices. "Ils me le font sur Twitter, " Trump a déclaré dans une interview avec "Mornings with Maria" de Fox Business Network.

    "Tu sais, J'ai des millions et des millions d'abonnés, mais je vais vous dire qu'il est très difficile pour les gens de me rejoindre sur Twitter, et ils rendent beaucoup plus difficile pour moi de faire passer le message, ", a déclaré Trump. "Ces gens sont tous démocrates. C'est totalement biaisé envers les démocrates."

    Monika Bickert, responsable de la gestion des politiques mondiales de Facebook, a déclaré à l'audience qu'en réponse aux événements de Nouvelle-Zélande, la société interdit désormais la diffusion en direct par des personnes qui ont enfreint les règles couvrant les organisations et les individus jugés dangereux et potentiellement violents.

    "Nous voulons nous assurer que nous faisons tout pour que cela ne se reproduise plus, " a déclaré Bickert.

    Le géant des réseaux sociaux a amélioré sa technologie et ses techniques et est désormais capable de détecter plus efficacement les contenus terroristes, notamment grâce à des outils fonctionnant désormais en 19 langues, elle a dit.

    Twitter a suspendu plus de 1,5 million de comptes pour des violations liées à la promotion du terrorisme depuis le 1er août. 2015, au 31 décembre 2018, dit Nick Pickles, stratège principal mondial pour les politiques publiques.

    "Nous continuons d'investir dans la technologie... pour nous assurer de pouvoir réagir le plus rapidement possible à un incident potentiel, ", a-t-il déclaré. " Twitter prendra des mesures concrètes pour réduire le risque que la diffusion en direct soit abusée par des terroristes, tout en reconnaissant qu'en période de crise, ces outils sont également utilisés par les organes de presse, citoyens et gouvernements."

    les règles de Google pour la recherche, news et YouTube précisent les types de comportement interdits, comme une fausse représentation de la propriété ou de l'objectif principal, dit Derek Slater, directeur de la politique de l'information.

    "Nous voulons faire tout notre possible pour garantir que les utilisateurs ne soient pas exposés à des contenus qui encouragent ou glorifient des actes de terrorisme, ", a déclaré Slater.

    © 2019 La Presse Associée. Tous les droits sont réservés.




    © Science https://fr.scienceaq.com