• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Le problème pédophile de YouTube n'est qu'une petite partie du problème d'Internet avec les abus sexuels sur les enfants

    Supprimer les pages Web illégales ne suffit pas. Crédit :Thomas Holt/Shutterstock

    YouTube a, encore, n'a pas réussi à protéger les enfants en ligne. Des enquêtes récentes menées par Wired et le blogueur vidéo Matt Watson ont allégué que des pédophiles utilisaient la section des commentaires du site pour laisser des messages prédateurs sur des vidéos contenant et téléchargées par des enfants, et partager des liens vers du matériel pédopornographique.

    En réponse aux enquêtes – et à la menace d'un boycott des annonceurs – YouTube a maintenant déclaré qu'il désactiverait les commentaires sur les vidéos contenant de jeunes enfants. Mais malheureusement, Ce n'est pas un incident isolé. En janvier 2019, il a été allégué que le moteur de recherche Bing de Microsoft faisait surface et suggérait du matériel pédopornographique. Et ce genre d'incidents sont des répétitions de problèmes similaires qui se sont produits au cours des cinq dernières années.

    La réalité est qu'Internet a un problème systémique avec le matériel d'abus sexuel d'enfants qui ne se limite pas à des sites de niche ou au dark web, mais qui se cache à la vue de tous parmi le contenu hébergé et contrôlé par les géants de la technologie. Nous devons faire plus pour protéger les enfants en ligne et cette action doit aller au-delà des modifications apportées aux algorithmes ou de la désactivation des commentaires.

    En 2016, plus de 57, 000 pages Web contenant des images d'abus sexuels sur des enfants ont été suivies par l'Internet Watch Foundation, un organisme basé au Royaume-Uni qui identifie et supprime ces contenus illégaux. Il s'agit d'une augmentation de 21 % par rapport à l'année précédente. Le National Center for Missing and Exploited Children, basé aux États-Unis, a reçu plus de 10 millions de signalements de contenus pédopornographiques en 2017, une augmentation de 22% par rapport aux 12 mois précédents. Il est probable que ces initiatives, bien que nécessaire, n'identifient et ne suppriment qu'une petite partie du contenu diffusé en ligne chaque jour.

    Les images illustrant la maltraitance des enfants qui sont publiées en ligne ont un impact sévère sur ces enfants maltraités pendant des années ou des décennies après la fin de la première maltraitance physique. Des enfants maltraités ont déjà été victimisés, mais la recherche montre que la disponibilité de leurs images en ligne maintient le cauchemar vivant pour l'enfant, leur famille et leurs amis. Cela peut également affecter de manière significative l'interaction d'une victime avec Internet pour le reste de sa vie.

    Les entreprises technologiques sont particulièrement bien placées pour agir en tant que gardiens du seuil en supprimant et en signalant le contenu sexuellement explicite qui est téléchargé sur leurs services. Alors pourquoi ne font-ils pas plus pour protéger agressivement des millions d'enfants dans le monde ?

    Même dans les premiers jours du Web, il était clair que les services fournis par les entreprises technologiques étaient utilisés pour diffuser des contenus pédopornographiques. Dès 1995, les forums de discussion d'AOL – une des premières incarnations des médias sociaux – auraient été utilisés pour partager du matériel d'abus d'enfants. En réponse, Les dirigeants d'AOL à l'époque ont affirmé qu'ils faisaient de leur mieux pour limiter les abus sur leur système, mais que leur système était trop volumineux pour être géré. C'est précisément la même excuse que nous entendons plus de deux décennies plus tard des titans de la technologie.

    Entre 2003 et 2008, malgré les promesses répétées d'agir, les grandes entreprises technologiques n'ont pas développé ou utilisé une technologie qui pourrait trouver et supprimer des contenus illégaux ou préjudiciables, même si cela violait leurs conditions d'utilisation. Puis en 2009, Microsoft a travaillé avec le National Center for Missing and Exploited Children et une équipe du Dartmouth College qui comprenait l'un d'entre nous (Hany Farid) pour développer la technologie photoDNA. Ce logiciel trouve et supprime rapidement les instances connues de contenu sexuel impliquant des enfants au fur et à mesure qu'il est téléchargé, et a été fourni gratuitement aux entreprises technologiques participant à l'initiative.

    Après des années de pression, photoDNA est maintenant utilisé par de nombreux services Web et réseaux. Mais depuis, les entreprises technologiques n'ont pas réussi à innover davantage pour répondre à un monde criminel de plus en plus sophistiqué. Par exemple, malgré la prévision de l'augmentation des vidéos d'abus d'enfants, les entreprises technologiques n'ont pas encore déployé de systèmes capables d'identifier les séquences incriminées comme photoDNA peut le faire pour les images.

    Ces entreprises doivent agir plus rapidement pour bloquer et supprimer les images illégales, ainsi que de répondre à d'autres activités qui permettent et encouragent l'exploitation des enfants. Cela signifie développer continuellement de nouvelles technologies, mais aussi repenser fondamentalement l'incitation perverse à gagner de l'argent avec les contenus utilisateurs, indépendamment de ce que ce contenu est réellement.

    Faire obstacle au contrôle

    Cependant, une combinaison d'éléments financiers, Des problèmes juridiques et philosophiques empêchent les entreprises technologiques de limiter les activités illégales de leurs services. En premier lieu, la suppression de contenu est dans de nombreux cas tout simplement mauvaise pour les affaires car elle réduit les opportunités de revenus publicitaires et de collecte de données sur les utilisateurs (qui peuvent également être vendues).

    Pendant ce temps, la loi dégage souvent les entreprises technologiques de la responsabilité du contenu qu'elles hébergent. Aux Etats-Unis, L'article 230 de la Communications Decency Act accorde aux entreprises technologiques une large immunité contre les poursuites pour les activités illégales de leurs utilisateurs. Cette immunité repose sur la catégorisation de YouTube ou Facebook comme des « plateformes » bénignes par opposition aux « éditeurs » actifs. La situation dans l'UE est similaire. Quoi de plus, certaines entreprises technologiques pensent que les activités illégales relèvent de la responsabilité de l'État, plutôt qu'une entreprise.

    Vu la taille, la richesse et la portée des géants de la technologie, ces excuses ne justifient pas l'inaction. Ils doivent modérer de manière proactive le contenu et supprimer les images illégales qui ont été téléchargées sur leurs sites. Ils pourraient et devraient contribuer à éclairer la recherche dans ce domaine vital de la sécurité des enfants, travailler avec les forces de l'ordre et les chercheurs pour enquêter et exposer le fléau de la maltraitance des enfants en ligne.

    Les annonceurs peuvent exercer une pression financière pour encourager les sites à modérer et bloquer les contenus tiers illégaux et abusifs (comme plusieurs entreprises l'ont fait suite aux derniers échecs sur YouTube). Mais de tels boycotts durent rarement. Ainsi, si la pression publique ne suffit pas, une réglementation gouvernementale obligeant les entreprises à se conformer à leurs propres conditions de service et aux lois locales peut être nécessaire.

    Cela pourrait être difficile à contrôler. Cela peut avoir des conséquences inattendues, par exemple, il est plus difficile pour les petites entreprises de rivaliser avec les géants actuels de la technologie. Ou cela peut encourager les entreprises à réagir de manière excessive et à devenir trop restrictives quant au contenu autorisé. Dans quel cas, nous préférerions que les entreprises technologiques exploitent leurs énormes richesses et ressources et fassent simplement ce qu'il faut.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com