• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Est-il même possible de réglementer Facebook efficacement ? Plusieurs tentatives ont abouti au même résultat

    Crédit :domaine public Unsplash/CC0

    Le récent avertissement du gouvernement australien à Facebook concernant la désinformation n'est que la dernière salve dans la bataille apparemment constante pour obliger le géant des médias sociaux à rendre compte du contenu publié sur sa plateforme.

    Cela s'est produit la même semaine que le Sénat américain a entendu un témoignage de dénonciation dans lequel l'ancienne dirigeante de Facebook, Frances Haugen, a allégué que l'entreprise était au courant des conséquences néfastes pour ses utilisateurs, mais a choisi de ne pas agir.

    Les gouvernements du monde entier font pression depuis des années pour rendre les géants des médias sociaux plus responsables, à la fois en termes de qualité des informations qu'ils hébergent et d'utilisation des données des utilisateurs dans le cadre de leurs modèles commerciaux.

    La loi sur la sécurité en ligne du gouvernement australien entrera en vigueur en janvier 2022, donnant au commissaire à la sécurité électronique des pouvoirs sans précédent pour réprimer les contenus abusifs ou violents, ou les images à caractère sexuel publiées sans consentement.

    Mais même en cas de succès, cette législation ne traitera qu'une petite partie des problèmes qui nécessitent une réglementation. Sur bon nombre de ces questions, les plateformes de médias sociaux ont tenté de s'autoréguler plutôt que de se soumettre à la législation. Mais qu'il s'agisse de législation ou d'autorégulation, les expériences passées n'engendrent pas beaucoup de confiance dans le fait que les plateformes technologiques peuvent être réglementées avec succès et la réglementation mise en œuvre facilement.

    Notre recherche a examiné les tentatives précédentes de réglementation des géants de la technologie en Australie. Nous avons analysé 269 articles de presse et 282 documents politiques et rapports de l'industrie publiés de 2015 à 2021. Discutons de quelques études de cas pertinentes.

    1. Annonces et actualités

    En 2019, l'enquête de l'Australian Competition and Consumer Commission (ACCC) sur les plateformes numériques a décrit les algorithmes de Facebook, en particulier ceux qui déterminent le positionnement de la publicité sur les pages Facebook, comme "opaques". Il a conclu que les entreprises de médias avaient besoin de plus d'assurance quant à l'utilisation de leur contenu.

    Facebook a d'abord accueilli favorablement l'enquête, mais s'y est ensuite publiquement opposé (avec Google) lorsque le gouvernement a fait valoir que les problèmes liés au pouvoir de marché substantiel de Facebook dans la publicité display, et la domination de Facebook et de Google sur le contenu d'actualités généré par les entreprises de médias, étaient trop importants pour être laissé aux entreprises elles-mêmes.

    Facebook a fait valoir qu'il n'y avait aucune preuve d'un déséquilibre du pouvoir de négociation entre lui et les entreprises de médias d'information, ajoutant qu'il n'aurait d'autre choix que de retirer les services d'information en Australie s'il était obligé de payer les éditeurs pour l'hébergement de leur contenu. L'impasse a entraîné le tristement célèbre embargo d'une semaine de Facebook sur les informations australiennes.

    Le Code de négociation révisé et amendé des médias d'information a été adopté par le Parlement en février. Le gouvernement et Facebook ont ​​tous deux déclaré victoire, le premier ayant réussi à faire adopter sa législation, et le second finissant par conclure ses propres marchés avec les éditeurs de presse sans avoir à être légalement tenus au code.

    2. Discours de haine et terrorisme

    En 2015, pour faire face à l'extrémisme violent sur les réseaux sociaux, le gouvernement australien a d'abord travaillé avec le géant de la technologie pour développer des solutions d'IA conjointes afin d'améliorer les processus techniques d'identification de contenu afin de lutter contre l'extrémisme violent.

    Cette solution volontaire a brillamment fonctionné, jusqu'à ce que ce ne soit pas le cas. En mars 2019, des fusillades de masse dans des mosquées de Christchurch ont été diffusées en direct sur Facebook par un terroriste suprémaciste blanc d'origine australienne, et les enregistrements ont ensuite circulé sur Internet.

    Cela a mis en lumière l'incapacité des algorithmes d'intelligence artificielle de Facebook à détecter et à supprimer les images en direct du tournage et à quelle vitesse elles ont été partagées sur la plateforme.

    Le gouvernement australien a réagi en 2019 en modifiant le Code pénal pour obliger les plateformes de médias sociaux à supprimer les contenus odieux ou violents « dans un délai raisonnable » et, le cas échéant, à les renvoyer à la police fédérale australienne.

    Qu'avons-nous appris ?

    Ces deux exemples, bien qu'étonnamment différents, se sont tous les deux déroulés de manière similaire :un premier dialogue dans lequel Facebook propose une solution maison impliquant ses propres algorithmes, avant un glissement ultérieur vers une réglementation gouvernementale obligatoire, qui se heurte à des résistances ou à des marchandages (ou les deux) de Facebook, et le résultat final est une législation fragmentaire qui est soit édulcorée, soit ne couvre qu'un sous-ensemble de types de préjudices spécifiques.

    Il y a plusieurs problèmes évidents avec cela. La première est que seuls les géants de la technologie eux-mêmes savent comment fonctionnent leurs algorithmes, il est donc difficile pour les régulateurs de les superviser correctement.

    Ensuite, il y a le fait que la législation s'applique généralement au niveau national, mais Facebook est une entreprise mondiale avec des milliards d'utilisateurs à travers le monde et une plate-forme qui est intégrée dans notre vie quotidienne de toutes sortes de façons.

    Comment sortir de l'impasse ? Une option consiste à ce que les réglementations soient élaborées par des organismes indépendants nommés par les gouvernements et les géants de la technologie pour conduire le programme de corégulation à l'échelle mondiale. Mais s'appuyer uniquement sur la réglementation pour guider le comportement des géants de la technologie contre les abus potentiels pourrait ne pas suffire. Il y a aussi un besoin d'autodiscipline et de gouvernance d'entreprise appropriée, éventuellement mise en œuvre par ces organes indépendants.

    © Science https://fr.scienceaq.com