Cette combinaison de photos d'images montre, dans le sens des aiguilles d'une montre, en haut à gauche :un signe Google, et des applications pour Twitter, Spotify et Facebook. Youtube, Facebook, Twitter, Spotify et d'autres sites se retrouvent dans un rôle qu'ils n'ont jamais voulu, en tant que gardiens du discours sur leurs plateformes, décider ce qui devrait et ne devrait pas être autorisé et irriter souvent presque tout le monde dans le processus. (Photo AP)
Qui aurait cru que connecter le monde pouvait devenir si compliqué ? Peut-être que certains des esprits les plus brillants de la technologie auraient dû voir cela venir.
L'interdiction des médias sociaux du théoricien du complot Alex Jones a poussé Facebook, Youtube, Twitter et d'autres dans un rôle qu'ils n'ont jamais voulu - en tant que gardiens du discours sur leurs plateformes, décider ce qui devrait et ne devrait pas être autorisé et irriter souvent presque tout le monde dans le processus. Jones, un provocateur de droite, s'est soudainement retrouvé banni de la plupart des grandes plateformes sociales cette semaine, après des années au cours desquelles il était libre de les utiliser pour promulguer une variété de fausses déclarations.
Twitter, qu'un de ses dirigeants appelait autrefois « l'aile de la liberté d'expression du parti de la liberté d'expression, " reste un obstacle solitaire sur Jones. Le contrecoup qui en résulte suggère que peu importe ce que font les entreprises technologiques, "il n'y a aucun moyen qu'ils puissent plaire à tout le monde, " comme Scott Shackelford, professeur de droit des affaires et d'éthique à l'Université d'Indiana, observé.
Mark Zuckerberg de Facebook, Jack Dorsey de Twitter et son équipe, et les intendants de YouTube de Google ont peu pensé à de telles conséquences alors qu'ils construisaient leurs empires avec des objectifs ambitieux pour connecter le monde et démocratiser le discours. À l'époque, ils étaient les rebelles visant à contourner les vieux gardiens pesants - les éditeurs de journaux, programmeurs de télévision et d'autres types d'établissements, et laissez les gens se parler directement.
"Si vous remontez une dizaine d'années en arrière, toute l'idée de la parole sur les réseaux sociaux a été considérée comme une lumière très positive, " a déclaré Tim Cigelske, qui enseigne les médias sociaux à l'Université Marquette dans le Wisconsin. Il y a eu le printemps arabe. Il y avait des histoires de gay, les adolescentes lesbiennes et transgenres de petites villes trouvent de l'aide en ligne.
À la fois, bien sûr, les entreprises se battaient pour se constituer les audiences les plus larges possibles, découpez et découpez leurs données utilisateur et réalisez de gros bénéfices en transformant ces informations en publicités ciblées lucratives.
Le côté obscur du discours libre, la pensée est allée, s'arrangerait au fur et à mesure que les communautés en ligne se modéreraient, aidé par des algorithmes informatiques en évolution rapide et, finalement, intelligence artificielle.
"Ils ont escaladé, Ils ont construit, ils voulaient générer des revenus ainsi que la base d'utilisateurs, " a déclaré l'analyste technologique Tim Bajarin, président du cabinet de conseil Creative Strategies. "C'était la priorité un et le contrôle du contenu était la priorité deux. Cela aurait dû être l'inverse."
En ce 19 avril, 2017, fichier photo, Alex Jones, animateur radio de droite et théoricien du complot, arrive au palais de justice d'Austin, Texas. Youtube, Facebook, Twitter, Spotify et d'autres sites se retrouvent dans un rôle qu'ils n'ont jamais voulu, en tant que gardiens du discours sur leurs plateformes, décider ce qui devrait et ne devrait pas être autorisé et irriter souvent presque tout le monde dans le processus. Le dernier point de discorde est Jones, qui s'est soudainement retrouvé banni de la plupart des principales plates-formes après avoir été autorisé à les utiliser pendant des années/. (Jay Janner/Austin American-Stateman via AP, Déposer)
Tout cela est devenu plus difficile une fois que l'élection du président Donald Trump a attiré une nouvelle attention sur les fausses nouvelles et les campagnes de désinformation organisées - sans parler du fait que certaines des personnes qui ont saisi ces nouveaux mégaphones de médias sociaux étaient des théoriciens du complot sauvages qui appellent faussement des canulars de fusillades, des nationalistes blancs qui organisent des rassemblements violents et des hommes qui menacent les femmes de viol et de meurtre.
Bien que les plateformes n'aient peut-être pas anticipé l'afflux de discours de haine et d'ingérence de puissances étrangères comme la Russie, la Corée du Nord et la Chine, Bajarin a dit, ils auraient dû agir plus rapidement une fois qu'ils l'ont trouvé. "Le fait est que nous avons affaire à un nouveau monde courageux qu'ils ont laissé se produire, et ils doivent prendre plus de contrôle pour l'empêcher de se propager, " il a dit.
C'est plus facile à dire qu'à faire, bien sûr. Mais il est particulièrement difficile pour les grandes entreprises technologiques d'équilibrer les biens publics tels que la liberté d'expression avec la nécessité de protéger leurs utilisateurs contre le harcèlement, abuser de, fausses nouvelles et manipulations. D'autant plus que leurs modèles économiques les obligent à s'aliéner le moins possible de leurs utilisateurs, de peur qu'ils ne mettent en danger le flot d'argent publicitaire.
"Essayer de mettre en place un cadre de parole qui fonctionne pour tout le monde - et s'assurer que nous appliquons efficacement ce cadre - est un défi, " a écrit Richard Allan, vice-président des politiques de Facebook, dans un article de blog jeudi. « Chaque politique que nous avons repose sur trois principes fondamentaux :donner la parole aux gens, assurer la sécurité des personnes, et traiter les gens de manière équitable. Les frustrations que nous entendons au sujet de nos politiques, aussi bien à l'extérieur qu'à l'intérieur, proviennent de la tension inévitable entre ces trois principes. »
De telles tensions obligent certaines des plus grandes entreprises du monde à décider, par exemple, si interdire les nazis signifie aussi interdire les nationalistes blancs – et trouver comment les distinguer sinon. Ou si le coup d'envoi de Jones signifie qu'ils doivent interdire tous les fournisseurs de fausses théories du complot. Ou si les commentaires racistes devraient être autorisés s'ils sont publiés, pour faire un point, par les personnes qui les ont reçues.
"Je ne pense pas que les plates-formes dans leur cœur aimeraient garder Alex Jones, " dit Nathaniel Persily, professeur à la Stanford Law School. "Mais il est difficile de proposer un principe pour dire pourquoi Alex Jones et pas les autres seraient supprimés."
Alors que la plupart des entreprises ont des politiques contre le « discours de haine, " définir ce qui constitue un discours de haine peut être difficile, il ajouta. Même les gouvernements ont du mal avec ça. La liberté d'expression d'un pays est le discours de haine d'un autre pays, passible d'une peine de prison.
Facebook, Twitter, Google, Reddit et d'autres sont confrontés à ces questions des millions de fois par jour, en tant que modérateurs humains et algorithmes décident quels messages, quelles personnes, quelles photos ou vidéos autoriser, pour lancer ou simplement rendre moins visible et plus difficile à trouver. S'ils autorisent trop de contenu préjudiciable, ils risquent de perdre des utilisateurs et des annonceurs. S'ils vont trop loin et en retirent trop, ils font face à des accusations de censure et de parti pris idéologique.
"Mon sentiment est qu'ils jettent tout au mur et voient ce qui colle, " dit Persily. " C'est un problème de taupe. Ce ne sont pas les mêmes menaces qui continuent, et ils doivent être assez agiles pour faire face à de nouveaux problèmes."
© 2018 La Presse Associée. Tous les droits sont réservés.