• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les bots pourraient s'avérer plus difficiles à détecter lors des élections de 2020

    Crédit :CC0 Domaine public

    informaticien de l'USC Information Sciences Institute (USC ISI), Emilio Ferrare, a de nouvelles recherches indiquant que les robots ou les faux comptes activés par l'intelligence artificielle sur les réseaux sociaux ont évolué et sont désormais mieux en mesure de copier les comportements humains afin d'éviter d'être détectés.

    Dans la revue Premier lundi , recherche de Ferrara et ses collègues Luca Luceri (Scuola Universitaria Professionale della Svizzera Italiana), Ashok Deb (USC ISI), Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana), examiner le comportement des bots lors des élections américaines de 2018 par rapport au comportement des bots lors des élections américaines de 2016.

    Les chercheurs ont étudié près de 250, 000 utilisateurs actifs sur les réseaux sociaux qui ont discuté des élections américaines en 2016 et 2018, et détecté plus de 30, 000 robots. Ils ont découvert que les bots en 2016 se concentraient principalement sur les retweets et les volumes élevés de tweets autour du même message. Cependant, à mesure que l'activité sociale humaine en ligne a évolué, donc avoir des bots. En période électorale 2018, tout comme les humains étaient moins susceptibles de retweeter autant qu'ils l'ont fait en 2016, les bots étaient moins susceptibles de partager les mêmes messages en volume élevé.

    Bots, les chercheurs ont découvert, étaient plus susceptibles d'employer une approche multi-bot comme pour imiter un engagement humain authentique autour d'une idée. Aussi, lors des élections de 2018, comme les humains étaient beaucoup plus susceptibles d'essayer de s'engager par des réponses, les bots ont essayé d'établir une voix et d'ajouter au dialogue et à s'engager à travers l'utilisation de sondages, une stratégie typique des agences de presse et des sondeurs réputés, visant peut-être à conférer une légitimité à ces comptes.

    Dans un exemple, un compte bot a publié un sondage Twitter en ligne demandant si les élections fédérales devraient exiger que les électeurs présentent une pièce d'identité aux bureaux de vote. Il a ensuite demandé aux utilisateurs de Twitter de voter et de retweeter.

    Auteur principal, Emilio Ferrare, c'est noté, "Notre étude corrobore davantage cette idée qu'il existe une course aux armements entre les bots et les algorithmes de détection. Alors que les sociétés de médias sociaux déploient davantage d'efforts pour atténuer les abus et étouffer les comptes automatisés, les bots évoluent pour imiter les stratégies humaines. Les progrès de l'IA permettent aux robots de produire un contenu plus humain. Nous devons consacrer plus d'efforts à comprendre comment les bots évoluent et comment les plus sophistiqués peuvent être détectés. Avec les prochaines élections américaines de 2020, l'intégrité du discours des médias sociaux est d'une importance primordiale pour permettre un processus démocratique exempt d'influences externes. »


    © Science https://fr.scienceaq.com