Crédit :Matthew Modoono/Northeastern University
Depuis que Frances Haugen, une ancienne employée de Facebook, a fourni des informations troublantes sur les dommages considérables causés par les algorithmes de l'entreprise, les discussions sur d'éventuelles réformes réglementaires n'ont fait que s'intensifier.
Il existe désormais un large consensus parmi les experts et les politiciens sur le fait que des changements réglementaires sont nécessaires pour protéger les utilisateurs, en particulier les jeunes enfants et les filles, qui sont vulnérables aux problèmes de santé mentale et aux problèmes d'image corporelle liés aux algorithmes de la plateforme de médias sociaux. Plusieurs changements ont été annoncés, des amendements à l'article 230 de la loi fédérale sur la décence des communications - la loi qui régit la responsabilité des fournisseurs de services, y compris Internet - aux mandats de transparence qui donneraient à des experts externes un accès au fonctionnement interne d'entreprises technologiques comme Facebook. .
Mais, compte tenu de l'attente de la liberté d'expression en ligne, les législateurs devront faire preuve de créativité. Une solution potentielle consiste à créer une nouvelle agence fédérale chargée de réglementer les entreprises de médias sociaux, comme cela a été fait avec le Consumer Financial Protection Bureau à la suite de la crise financière de 2008, mais cela soulève des questions sur la manière dont le processus politique et les partis différentes idées sur la vie privée et la liberté d'expression, viendraient peser sur un tel effort, disent plusieurs experts du Nord-Est.
"Je me demande si les parties accepteraient un jour de créer une agence spéciale ou d'augmenter la [Commission fédérale des communications] de manière à donner plus de pouvoir réglementaire au gouvernement fédéral", a déclaré David Lazer, professeur émérite de sciences politiques et d'informatique. au nord-est.
Une nouvelle agence pourrait aider à décharger une partie du fardeau réglementaire auquel est confrontée la Federal Trade Commission, mais elle pourrait également s'avérer être une arme politique dangereuse qu'aucune des parties ne voudrait que l'autre ait, dit Lazer.
Quoi qu'il en soit, il doit y avoir "plus de mécanismes pour rendre Facebook plus transparent", dit-il.
"Le problème, c'est qu'une fois que vous avez la transparence, tout le monde voit quelque chose de différent", déclare Lazer.
Témoignant devant le Congrès la semaine dernière, Haugen a aidé à faire la lumière sur la façon dont Facebook, qui possède également Instagram et WhatsApp, a conçu des algorithmes qui promeuvent des contenus haineux, préjudiciables et problématiques aux dépens de ses utilisateurs. Les documents que Haugen a partagés avec le Wall Street Journal le mois dernier ont montré que le géant de la technologie savait que ses algorithmes étaient nocifs à cause de la recherche interne, mais a choisi de garder l'information secrète.
Au cours du week-end, un haut dirigeant de Facebook a déclaré que la société était favorable à l'accès des régulateurs à ses algorithmes et à une plus grande transparence plus largement.
Il est important de "démystifier" le fonctionnement réel de ces technologies, cachées derrière un voile de secret pendant des années, déclare Woodrow Hartzog, professeur de droit et d'informatique spécialisé dans la protection des données et la confidentialité.
On sait depuis des années, par exemple, que les algorithmes de Facebook amplifient ou optimisent les contenus qui suscitent l'indignation. Les révélations du Wall Street Journal ont montré que les propres recherches de Facebook ont montré que ses algorithmes Instagram alimentent l'insécurité et contribuent aux problèmes de santé mentale, en faisant la promotion de contenus glorifiant les troubles de l'alimentation, par exemple auprès des jeunes utilisatrices.
Plutôt que d'interdire l'amplification algorithmique, Hartzog dit qu'il devrait y avoir des garanties obligatoires qui surveillent les effets délétères des algorithmes jus, ajoutant "il existe des choses telles que des algorithmes sûrs". La vraie question, dit-il, est-ce que nous pouvons avoir une amplification algorithmique sûre ?
"Ils devraient être obligés d'agir d'une manière qui n'entre pas en conflit avec notre sécurité et notre bien-être", a déclaré Hartzog. "C'est une façon d'aborder ce problème qui n'interdira pas purement et simplement l'amplification algorithmique."
Hartzog a également suggéré que les régulateurs pourraient s'appuyer sur le concept de responsabilité fiduciaire et imposer des "devoirs de diligence, de confidentialité et de loyauté" aux entreprises technologiques, similaires aux devoirs auxquels les médecins, les avocats et les comptables sont tenus vis-à-vis de leur clients et patients – seulement ici, ce serait en relation avec les utilisateurs finaux.
Selon Hartzog, le problème réside dans les incitations financières, c'est pourquoi l'idée de faire des entreprises technologiques des "fiduciaires de l'information" a gagné du terrain. Les législateurs des États et du gouvernement fédéral examinent le modèle fiduciaire de l'information dans la législation à l'étude.
"Ce que j'aimerais voir en sortir… c'est une conversation plus profonde et plus large sur la façon de changer fondamentalement les incitations qui entraînent toutes sortes de comportements nuisibles liés à la collecte et à l'utilisation d'informations privées", déclare Hartzog.