• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Pourquoi les entreprises de médias sociaux auront du mal à suivre les nouvelles règles de l'UE sur les contenus illégaux

    Crédit :domaine public Unsplash/CC0

    Les médias sociaux nous ont permis de nous connecter les uns aux autres comme jamais auparavant. Mais cela a eu un prix :cela a donné un mégaphone à tout le monde, y compris les terroristes, les pédophiles et les groupes haineux. Les institutions de l'UE sont récemment parvenues à un accord sur la loi sur les services numériques (DSA), qui vise à "s'assurer que ce qui est illégal hors ligne est traité comme illégal en ligne".

    Le gouvernement britannique a également en préparation un projet de loi sur la sécurité en ligne, visant à renforcer les exigences imposées aux plateformes numériques pour supprimer les contenus illégaux.

    L'échelle à laquelle opèrent les grandes plates-formes de médias sociaux - elles peuvent avoir des milliards d'utilisateurs à travers le monde - présente un défi majeur dans la surveillance des contenus illégaux. Ce qui est illégal dans un pays peut être une expression légale et protégée dans un autre. Par exemple, les règles concernant la critique du gouvernement ou des membres d'une famille royale.

    Cela se complique lorsqu'un utilisateur publie depuis un pays et que la publication est partagée et consultée dans d'autres pays. Au Royaume-Uni, il y a même eu des situations où il était légal d'imprimer quelque chose sur la première page d'un journal en Écosse, mais pas en Angleterre.

    La DSA laisse aux États membres de l'UE le soin de définir le contenu illégal dans leurs propres lois.

    L'approche de la base de données

    Même lorsque la loi est claire, par exemple quelqu'un qui met en vente des drogues contrôlées ou qui recrute pour des groupes terroristes interdits, la modération du contenu sur les plateformes de médias sociaux est confrontée à des défis d'échelle.

    Les utilisateurs font des centaines de millions de publications par jour. L'automatisation peut détecter le contenu illégal connu sur la base d'une empreinte floue du contenu du fichier. Mais cela ne fonctionne pas sans base de données et le contenu doit être examiné avant d'être ajouté.

    En 2021, l'Internet Watch Foundation a enquêté sur plus de signalements qu'au cours de ses 15 premières années d'existence, dont 252 000 concernant la maltraitance d'enfants :une augmentation de 64 % d'une année sur l'autre par rapport à 2020.

    Cependant, les nouvelles vidéos et images ne seront pas capturées par une base de données. Bien que l'intelligence artificielle puisse essayer de rechercher de nouveaux contenus, elle ne fera pas toujours les choses correctement.

    Comment se comparent les plateformes sociales ?

    Au début de 2020, Facebook comptait environ 15 000 modérateurs de contenu aux États-Unis, contre 4 500 en 2017. TikTok affirmait avoir 10 000 personnes travaillant sur la "confiance et la sécurité" (ce qui est un peu plus large que la modération de contenu). 2020. Un rapport de la NYU Stern School of Business de 2020 suggérait que Twitter comptait environ 1 500 modérateurs.

    Facebook affirme qu'en 2021, 97 % du contenu signalé comme discours de haine a été supprimé par l'IA, mais nous ne savons pas ce qui a été manqué, non signalé ou non supprimé.

    Le DSA obligera les plus grands réseaux sociaux à ouvrir leurs données et informations à des chercheurs indépendants, ce qui devrait accroître la transparence.

    Modérateurs humains vs techniciens

    L'examen de contenus violents, dérangeants, racistes et haineux peut être traumatisant pour les modérateurs et a conduit à un règlement judiciaire de 52 millions de dollars américains (42 millions de livres sterling). Certains modérateurs de médias sociaux déclarent devoir examiner jusqu'à 8 000 éléments de contenu signalés par jour.

    Bien qu'il existe des techniques émergentes basées sur l'IA qui tentent de détecter des types de contenu spécifiques, les outils basés sur l'IA ont du mal à faire la distinction entre un contenu illégal et de mauvais goût ou potentiellement dangereux (mais autrement légal). L'IA peut signaler de manière incorrecte un contenu inoffensif, passer à côté d'un contenu préjudiciable et augmenter le besoin d'un examen humain.

    Les propres études internes de Facebook auraient trouvé des cas où la mauvaise action a été prise contre les publications jusqu'à "90% du temps". Les utilisateurs attendent de la cohérence, mais cela est difficile à fournir à grande échelle, et les décisions des modérateurs sont subjectives. Les cas de zone grise contrecarreront même les directives les plus spécifiques et les plus prescriptives.

    Acte d'équilibre

    Le défi s'étend également à la désinformation. La ligne est mince entre la protection de la liberté d'expression et de la liberté de la presse et la prévention de la diffusion délibérée de faux contenus. Les mêmes faits peuvent souvent être formulés différemment, ce qui est bien connu de tous ceux qui connaissent la longue histoire du "spin" en politique.

    Les réseaux sociaux s'appuient souvent sur les utilisateurs signalant des contenus préjudiciables ou illégaux, et la DSA cherche à renforcer cela. Mais une approche trop automatisée de la modération peut signaler ou même masquer le contenu qui atteint un nombre défini de rapports. Cela signifie que les groupes d'utilisateurs qui souhaitent supprimer du contenu ou des points de vue peuvent militariser le signalement de masse du contenu.

    Les entreprises de médias sociaux se concentrent sur la croissance des utilisateurs et le temps passé sur la plateforme. Tant que l'abus ne les retient pas, ils gagneront probablement plus d'argent. C'est pourquoi il est important que les plateformes prennent des mesures stratégiques (mais potentiellement polarisantes), comme la suppression de l'ancien président américain Donald Trump de Twitter.

    La plupart des demandes formulées par la DSA sont raisonnables en elles-mêmes, mais seront difficiles à mettre en œuvre à grande échelle. Une surveillance accrue du contenu conduira à une utilisation accrue de l'automatisation, qui ne peut pas faire d'évaluations subjectives du contexte. Les appels peuvent être trop lents pour offrir un recours significatif si un utilisateur reçoit à tort une interdiction automatique.

    Si les sanctions légales en cas d'erreur de modération de contenu sont suffisamment élevées pour les réseaux sociaux, ils n'auront peut-être d'autre choix à court terme que de limiter plus soigneusement ce que les utilisateurs obtiennent. L'approche de TikTok en matière de contenu trié sur le volet a été largement critiquée. Les biais de plate-forme et les "bulles de filtrage" sont une réelle préoccupation. Des bulles de filtre sont créées où le contenu qui vous est présenté est automatiquement sélectionné par un algorithme, qui tente de deviner ce que vous voulez voir ensuite, en fonction de données telles que celles que vous avez déjà consultées. Les utilisateurs accusent parfois les sociétés de médias sociaux de biais de plateforme ou de modération injuste.

    Existe-t-il un moyen de modérer un mégaphone mondial ? Je dirais que les preuves indiquent non, du moins pas à grande échelle. Nous verrons probablement la réponse se jouer par l'application de la DSA devant les tribunaux.

    © Science https://fr.scienceaq.com