En ce 6 août, 2015, fichier photo, un panneau d'élections FaceBook se dresse dans la zone des médias à Cleveland, avant le premier débat présidentiel républicain. Facebook et d'autres plateformes sociales luttent depuis deux ans contre la désinformation en ligne et les discours de haine. Avec les élections de mi-mandat aux États-Unis qui arrivent bientôt mardi, 6 novembre 2018, il y a des signes qu'ils font des progrès, bien qu'ils soient encore loin de gagner la guerre. (AP Photo/John Minchillo, Déposer)
Facebook et d'autres plateformes sociales luttent depuis deux ans contre la désinformation en ligne et les discours de haine. À quelques jours des élections de mi-mandat aux États-Unis, il y a des signes qu'ils font des progrès, bien qu'ils soient encore très loin de gagner la guerre.
C'est parce que l'effort risque de se heurter à des vents contraires politiques que Facebook, Twitter et Google trouvent mauvais pour les affaires. Certains prétendent même que les réseaux sociaux sont faciles à inonder de désinformation par conception, une conséquence involontaire de leur empressement à répondre aux besoins des annonceurs en catégorisant les intérêts de leurs utilisateurs.
Pris au dépourvu de manière embarrassante après avoir été joués par des agents russes se mêlant des élections américaines de 2016, les géants de la technologie ont jeté des millions de dollars, des dizaines de milliers de personnes et ce qu'ils disent sont leurs meilleurs efforts techniques pour lutter contre les fausses nouvelles, la propagande et la haine qui ont proliféré sur leurs plateformes numériques.
Facebook, en particulier, a opéré un renversement majeur depuis fin 2016, lorsque le PDG Mark Zuckerberg a tristement rejeté l'idée que de fausses nouvelles sur son service auraient pu influencer l'élection comme "assez folle". En juillet, par exemple, la société a annoncé que de lourdes dépenses en matière de sécurité et de modération de contenu, couplé avec d'autres changements d'affaires, freinerait la croissance et la rentabilité. Les investisseurs ont immédiatement paniqué et ont réduit de 119 milliards de dollars la valeur marchande de l'entreprise.
Ce 16 juillet, La photo d'archive de 2013 montre une pancarte au siège de Facebook à Menlo Park, Californie Facebook et d'autres plateformes sociales luttent depuis deux ans contre la désinformation en ligne et les discours de haine. Avec les élections de mi-mandat aux États-Unis qui arrivent bientôt mardi, 6 novembre 2018, il y a des signes qu'ils font des progrès, bien qu'ils soient encore loin de gagner la guerre. (AP Photo/Ben Margot, Déposer)
Le réseau social a commencé à voir les fruits de ses efforts. Une collaboration de recherche entre l'Université de New York et Stanford a récemment révélé que les "interactions" des utilisateurs avec de fausses nouvelles sur Facebook, qui a fortement augmenté en 2016 lors de la campagne présidentielle, significativement diminué entre fin 2016 et juillet 2018. Sur Twitter, cependant, le partage de telles histoires a continué d'augmenter au cours des deux dernières années.
Une mesure similaire du Center for Social Media Responsibility de l'Université du Michigan, surnommée le « Quotient incertain » – qui évalue la prévalence du contenu « incertain » sur les réseaux sociaux – montre également que le « difficulté » de Facebook est passé d'un sommet de 8,1 % en mars. 2017 à 3,2% lundi. L'incertitude de Twitter a également légèrement baissé, contre 5,6% en novembre 2016, à 4,2 pour cent lundi.
Même à ces niveaux, Les fausses nouvelles restent énormes et peuvent se propager à de nouveaux publics. Une équipe dirigée par Philip Howard, le chercheur principal sur l'effort de propagande informatique d'Oxford, a examiné les articles partagés sur Twitter au cours des 10 derniers jours de septembre 2018 et a constaté que ce qu'il appelait des « actualités indésirables » représentait un quart de tous les liens partagés pendant cette période, soit plus que le nombre d'articles d'actualités professionnels partagés pendant cette période.
L'équipe a défini les informations indésirables comme des sources qui ont publié des informations trompeuses ou incorrectes, souvent de manière idéologique ou complotiste, tout en ne répondant pas à des critères tels que le professionnalisme, biais, crédibilité et style.
Ce 26 octobre, La photo d'archive de 2016 montre un panneau Twitter à l'extérieur du siège social de l'entreprise à San Francisco. Facebook et d'autres plateformes sociales luttent depuis deux ans contre la désinformation en ligne et les discours de haine. Avec les élections de mi-mandat aux États-Unis qui arrivent bientôt mardi, 6 novembre 2018, il y a des signes qu'ils font des progrès, bien qu'ils soient encore loin de gagner la guerre. (AP Photo/Jeff Chiu, Déposer)
Alors que l'analyse d'Oxford n'a pas produit de chiffres similaires pour Facebook, les chercheurs ont cartographié la façon dont les informations indésirables circulent sur le réseau social et ont découvert que les théories du complot et autres informations erronées autrefois réservées à un public « de droite dure » sont désormais également partagées plus librement parmi les conservateurs traditionnels. (Les utilisateurs de gauche ont également développé un goût pour les informations indésirables, l'équipe d'Oxford a trouvé, mais cela ne représente qu'une petite fraction du matériel qu'ils partagent sur Facebook.)
De telles études offrent des images imparfaites de ce qui se passe réellement sur les réseaux sociaux, puisque les services n'offrent généralement pas aux chercheurs un accès illimité à leurs données. Twitter, par exemple, conteste l'étude d'Oxford, notant qu'il a utilisé un flux public de tweets qui ne reflète pas le filtrage effectué par Twitter pour supprimer le matériel malveillant ou spam.
Réprimer la désinformation, bien sûr, est tout sauf facile. Les adversaires trouvent toujours de nouvelles façons de contourner les restrictions. Il peut également être difficile de distinguer la désinformation et la propagande des nouvelles légitimes, surtout lorsque des dirigeants mondiaux tels que le président Donald Trump diffusent régulièrement des mensonges sur les réseaux sociaux.
La politique complique aussi les choses, puisque les sociétés de médias sociaux sont soucieuses d'éviter les accusations de parti pris politique. Lorsque Facebook, YouTube de Google et, finalement, Twitter a tous interdit le complotiste Alex Jones pour diverses violations de leurs conditions de service, Jones et ses alliés ont immédiatement affirmé qu'il était censuré. Le président Trump est intervenu quelques semaines plus tard avec une accusation parallèle, affirmant sans preuve que Google et d'autres sociétés "supprimaient les voix des conservateurs et cachaient des informations et des nouvelles bonnes".
Ce mardi, 19 juillet 2016, la photo d'archive montre le logo Google au siège de l'entreprise à Mountain View, Californie Facebook, Twitter, Google, et d'autres plateformes sociales luttent depuis deux ans contre la désinformation en ligne et les discours de haine. Avec les élections de mi-mandat aux États-Unis qui arrivent bientôt mardi, 6 novembre 2018, il y a des signes qu'ils font des progrès, bien qu'ils soient encore loin de gagner la guerre. (AP Photo/Marcio José Sanchez, Déposer)
Twitter, En réalité, charges that researchers such as the Oxford team define "junk news" too broadly. Le groupe, par exemple, classes conservative sites such as Breitbart News and the Daily Caller as "junk" by its criteria. Twitter argues that banning "media outlets that reflect views within American society" would "severely hinder public debate."
Some critics charge that the very advertising-based business model that made Zuckerberg rich is also perfectly suited for propagandists. Services like Facebook and Twitter "sustain themselves by finding like-minded groups and selling information about their behavior, " Dipayan Ghosh, a former privacy policy expert at Facebook and Ben Scott, senior adviser at New America, wrote in a Time Magazine op-ed earlier this year. "Disinformation propagators sustain themselves by manipulating the behavior of like-minded groups."
"They don't self-regulate, " said Dora Kingsley Vertenten, a professor of public policy at the University of Southern California and CEO of research consulting firm Trenton West. "They just want to make a profit, and what they have done to date is not nearly enough."
Really fixing the misinformation problem might require big changes to how these services work. Users started spending less time on Facebook after it made changes to make its service more "meaningful" to users, involving less scrolling through posts and more interactions with friends, dit la société.
Twitter CEO Jack Dorsey has hinted that he is open to drastic changes , but he hasn't yet said what they might look like. And there haven't been any obvious shifts since he made that statement in August.
En ce 11 avril photo d'archive 2018, Facebook CEO Mark Zuckerberg returns after a break to continue testifying at a House Energy and Commerce hearing on Capitol Hill in Washington, about the use of Facebook data to target American voters in the 2016 election and data privacy. Facebook and other social platforms have been waging a fight against online misinformation and hate speech for two years. With the U.S. midterm elections coming soon on Tuesday, Nov. 6, there are signs that they're making some headway, although they're still a long way from winning the war. (AP Photo/Jacquelyn Martin, Déposer)
© 2018 La Presse Associée. Tous les droits sont réservés.