En ce 3 mars, 2016, fichier photo, deux personnes travaillent sur un ordinateur à Atlanta. Les chercheurs qui étudient la désinformation prédisent que cela va empirer avant le vote présidentiel de cette année. La désinformation et la désinformation peuvent prendre la forme de fausses nouvelles et de photos et vidéos falsifiées ou présentées sans contexte. (AP Photo/David Goldman, Déposer)
Cyborg, les trolls et les bots peuvent remplir Internet de mensonges et de demi-vérités. Les comprendre est essentiel pour apprendre comment la désinformation se propage en ligne.
Comme l'ont montré les élections de 2016, les médias sociaux sont de plus en plus utilisés pour amplifier les fausses allégations et diviser les Américains sur des questions brûlantes, notamment la race et l'immigration. Les chercheurs qui étudient la désinformation prédisent que cela va empirer avant le vote présidentiel de cette année. Voici un guide pour comprendre le problème :
Désinformation contre désinformation
La désinformation politique existe depuis avant l'imprimerie, mais Internet a permis des mensonges, les théories du complot et les exagérations se répandent plus vite et plus loin que jamais.
La désinformation est définie comme toute fausse information, quelle que soit l'intention, y compris des erreurs honnêtes ou des incompréhensions des faits. Désinformation, d'autre part, fait généralement référence à la désinformation créée et diffusée intentionnellement comme un moyen de semer la confusion ou d'induire en erreur.
La désinformation et la désinformation peuvent apparaître dans des publicités politiques ou des publications sur les réseaux sociaux. Ils peuvent inclure de fausses nouvelles ou des vidéos trafiquées. Un exemple flagrant de désinformation de l'année dernière était une vidéo de la présidente de la Chambre, Nancy Pelosi, qui a été ralentie pour la faire sonner comme si elle martelait ses mots.
La recherche indique que les fausses déclarations se propagent plus facilement que les fausses déclarations, peut-être parce qu'ils sont conçus pour attirer l'attention.
Les scientifiques du Massachusetts Institute of Technology ont analysé plus de 126, 000 histoires, des vrais et des faux, qui ont été tweetés des millions de fois de 2006 à fin 2016. Ils ont découvert que les histoires trompeuses ou incorrectes voyageaient six fois plus vite et touchaient plus de personnes.
La désinformation en ligne a été accusée d'approfondir la polarisation politique américaine et de contribuer à la méfiance à l'égard du gouvernement. Les risques ont été mis en évidence en 2016 lorsque des trolls russes ont créé de faux comptes pour diffuser et amplifier les publications sur les réseaux sociaux sur des questions controversées.
Guerre des robots et des cyborgs
Les fantassins jetables dans ce conflit numérique sont des robots. Dans le contexte des réseaux sociaux, ces programmes autonomes peuvent exécuter des comptes pour diffuser du contenu sans intervention humaine.
Beaucoup sont inoffensifs, tweeter des poèmes ou des photos d'animaux au hasard. Mais d'autres ne sont pas bons et conçus pour ressembler à de vrais utilisateurs.
Une étude menée par des chercheurs de l'Université de Californie du Sud a analysé les tweets liés aux élections envoyés en septembre et octobre 2016 et a révélé qu'un tweet sur cinq avait été envoyé par un bot. Le Pew Research Center a conclu dans une étude de 2018 que les comptes soupçonnés d'être des robots sont responsables de jusqu'à deux tiers de tous les tweets qui renvoient vers des sites Web populaires.
Alors que les utilisateurs de Twitter en chair et en os publient souvent quelques fois par jour, sur des sujets variés, les bots les plus évidents tweeteront des centaines de fois par jour, jour et nuit, et souvent uniquement sur un sujet précis. Ils sont plus susceptibles de republier du contenu plutôt que de créer quelque chose d'original.
Et puis il y a le cyborg, une sorte de compte hybride qui combine l'acharnement d'un bot avec la subtilité humaine. Les comptes Cyborg sont ceux dans lesquels un humain prend périodiquement le contrôle d'un compte bot pour répondre aux autres utilisateurs et publier du contenu original. Ils sont plus coûteux et plus longs à exploiter, mais ils ne se présentent pas comme des robots.
"Vous pouvez obtenir beaucoup d'un bot, mais ce n'est peut-être pas la meilleure qualité, " dit Emilio Ferrare, un chercheur en science des données à l'Université de Californie du Sud qui a co-écrit l'étude sur les robots Twitter. "Le problème avec les cyborgs, c'est qu'ils sont beaucoup plus difficiles à attraper et à détecter."
Repérez les bots
Les bots peuvent être difficiles à repérer, même pour les meilleurs chercheurs.
"Nous avons 12 façons de repérer un bot, et si nous atteignons sept ou huit d'entre eux, nous avons une confiance assez élevée, " a déclaré Graham Brookie, directeur du Digital Forensic Research Lab de l'Atlantic Council, un Washington, Organisation basée à Washington qui étudie les connexions entre les médias sociaux, cybersécurité et gouvernement.
Néanmoins, Brookie a rappelé le cas d'un compte Twitter du Brésil qui publiait presque constamment - parfois une fois par minute - et affichait d'autres caractéristiques de type bot. Et encore, "C'était une petite grand-mère, qui a dit, 'C'est moi!'"
Leur prévalence et la difficulté de les identifier ont fait des bots une sorte de croque-mitaine numérique et transformé le terme en insulte, utilisé pour rejeter d'autres utilisateurs de médias sociaux avec des opinions différentes.
Michael Watsey, un homme de 43 ans du New Jersey qui tweete souvent son soutien au président Donald Trump, a déclaré qu'il avait été appelé à plusieurs reprises un bot russe par des personnes avec lesquelles il se disputait en ligne. Les accusations ont incité Twitter à suspendre temporairement son compte plus d'une fois, le forçant à vérifier qu'il est un humain.
"Tout ce que j'essaie de faire, c'est d'utiliser mon droit à la liberté d'expression du premier amendement, " dit-il. " C'est fou qu'on en soit arrivé là. "
Trolls et marionnettes chaussettes
Le mot troll faisait autrefois référence aux bêtes de la mythologie scandinave qui se cachaient sous les ponts et attaquaient les voyageurs. Désormais, cela fait également référence aux personnes qui publient en ligne pour provoquer les autres, parfois pour leur propre amusement et parfois dans le cadre d'une campagne coordonnée.
Les marionnettes à chaussettes sont un autre habitant des médias sociaux au nom étrange, dans ce cas un type de compte imposteur. Alors que certains utilisateurs peuvent utiliser des comptes anonymes simplement pour éviter de s'identifier, Les comptes de marionnettes à chaussettes sont utilisés par le propriétaire pour attaquer ses critiques ou se féliciter. En octobre, Le sénateur de l'Utah, Mitt Romney, a reconnu exploiter un compte Twitter secret sous le nom de "Pierre Delecto, " qu'il utilisait pour se défendre des critiques.
Vidéos truquées:Profond, Pas cher et peu profond
Les deepfakes sont des vidéos qui ont été créées numériquement avec l'intelligence artificielle ou l'apprentissage automatique pour donner l'impression que quelque chose s'est passé qui ne s'est pas produit. Ils sont perçus comme une menace émergente, car les améliorations apportées aux logiciels de montage vidéo permettent aux escrocs de créer des séquences de plus en plus réalistes, dire, l'ancien président Barack Obama prononçant un discours qu'il n'a jamais prononcé, dans un cadre qu'il n'a jamais visité. Ils sont coûteux et difficiles à créer, surtout de manière convaincante.
Facebook a annoncé le mois dernier qu'il interdirait les vidéos deepfake, à l'exception de la satire. À partir de mars, Twitter interdira les vidéos trafiquées, la photographie et les enregistrements audio « susceptibles de causer des dommages ». Le matériel qui est manipulé mais qui n'est pas nécessairement nocif peut recevoir une étiquette d'avertissement. Et YouTube interdit les « utilisations trompeuses de médias manipulés » qui pourraient présenter un risque grave de préjudice.
Par contre, faux peu profonds, cheapfakes ou dumbfakes sont des vidéos qui ont été falsifiées en utilisant des techniques plus basiques, comme ralentir ou accélérer le métrage ou le couper.
Examples include a doctored video posted by Britain's Conservative Party before December's U.K. election that made it seem like a Labour Party official was struggling to respond to a question about Brexit.
Because they're easy and inexpensive to make, cheapfakes can be every bit as dangerous as their fancier cousin, the deepfake.
"Deepfakes are getting more realistic and easier to do, " said John Pavlik, a journalism professor at Rutgers University who studies how technology and the internet are changing communication habits. "But you don't have to have special software to make these simpler ones."
Researchers who study Americans' changing media habits recommend that people turn to a variety of sources and perspectives for their news, use critical thinking when evaluating information on social media, and think twice about reposting viral claims. Autrement, ils disent, misinformation will continue to flow, and users will continue to spread it.
"The only solution, " Ferrara said, "is education."
© 2020 La Presse Associée. Tous les droits sont réservés.