• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • YouTube pour freiner la recommandation de vidéos de complot

    Crédit :CC0 Domaine public

    Le réseau vidéo YouTube a répondu aux critiques qui ont longtemps appelé la société Google à nettoyer son moteur de recommandation, et ne pas proposer de vidéos de complot dans les pièces suggérées.

    Dans un article de blog publié vendredi, YouTube a déclaré qu'il commencerait à réduire les recommandations de "contenu limite et de contenu qui pourraient désinformer les utilisateurs de manière préjudiciable, comme des vidéos faisant la promotion d'un faux remède miracle contre une maladie grave, prétendre que la terre est plate, ou faire des déclarations manifestement fausses sur des événements historiques comme le 11 septembre. »

    Le théoricien du complot le plus en vue, Alex Jones, a été interdit par YouTube en 2018, avec Apple, Brodeuse, Facebook et d'autres concernant les inquiétudes concernant son contenu, y compris des vidéos qui se demandaient si les meurtres de Sandy Hook étaient réels.

    Donc, si les utilisateurs de YouTube recherchaient des comptes d'actualités sur un événement comme Sandy Hook, ils auraient pu voir InfoWars apparaître après une série de vidéos de CBS, ABC et autres. L'algorithme YouTube sélectionne les vidéos en fonction de vos historiques de visionnage et de recherche en mode de lecture automatique, avec des suggestions pour d'autres vidéos à regarder également.

    Ce n'est pas la première fois que YouTube essaie de s'attaquer au problème de la vidéo du complot. En mars 2018, il a dit qu'il mettrait des liens vers Wikipedia sur les événements dans des zones de texte autour "d'événements largement acceptés, comme l'alunissage (1969)".

    YouTube répondait à la réaction du public après que son onglet de vidéos tendance a donné une large plate-forme aux clips qui partageaient des informations fausses ou trompeuses sur les derniers événements d'actualité nationale, comme la fusillade au lycée à Parkland, Floride, ou la fusillade de masse de 2017 à Las Vegas.

    YouTube dit que ce changement d'algorithme s'appliquera à moins de 1% du contenu sur YouTube, mais que "limiter la recommandation de ces types de vidéos signifiera une meilleure expérience pour la communauté YouTube".

    Le réseau a souligné que le changement affectera les recommandations de vidéos à regarder, pas si une vidéo est disponible sur YouTube.

    "Comme toujours, les gens peuvent toujours accéder à toutes les vidéos qui sont conformes à notre règlement de la communauté et, le cas échéant, ces vidéos peuvent apparaître dans les recommandations pour les abonnés à la chaîne et dans les résultats de recherche."

    YouTube reçoit plus de 400 heures de vidéos téléchargées sur le site chaque minute, tant de vidéos douteuses passent entre les mailles du filet. Les critiques réclament depuis longtemps une surveillance plus humaine, et YouTube a répondu en disant qu'il en embaucherait jusqu'à 10, 000 personnes à chasser les vidéos offensantes. En outre, le réseau a vanté son utilisation de l'apprentissage automatique pour mieux gérer les mauvaises choses hors du réseau.

    Les vidéos restent en ligne jusqu'à ce qu'elles soient "signalées" par des membres de la communauté pour non-respect des consignes de YouTube, comme faire preuve de violence, contenu sexuel ou dans le cas de la récente fusillade dans un lycée de Floride, fausse information.

    Un exemple de la question du complot. En février 2018, lorsque les étudiants survivants d'une fusillade dans un lycée en Floride ont commencé à s'exprimer, une vidéo suggérant que les étudiants étaient « des acteurs de crise, " engagé par les démocrates et les défenseurs du contrôle des armes à feu, atteint le sommet de la section Tendances de YouTube, attirer 200, 000 vues. Une fois que les médias s'en sont rendu compte, YouTube l'a retiré.

    Ce changement de politique repose sur une combinaison d'apprentissage automatique et de personnes réelles, YouTube dit. « Nous travaillons avec des évaluateurs humains et des experts de tous les États-Unis pour aider à former les systèmes d'apprentissage automatique qui génèrent des recommandations. Ces évaluateurs sont formés à l'aide de directives publiques et fournissent une contribution critique sur la qualité d'une vidéo. »

    YouTube avait résisté à des modifications importantes de son algorithme en raison de préoccupations concernant la liberté d'expression. Le réseau a déclaré que le changement « établit un équilibre entre le maintien d'une plate-forme pour la liberté d'expression et le respect de notre responsabilité envers les utilisateurs ».

    Les changements ne prendront effet qu'aux États-Unis pour le moment et seront éventuellement étendus à d'autres pays.

    (c)2019 États-Unis aujourd'hui
    Distribué par Tribune Content Agency, LLC.




    © Science https://fr.scienceaq.com