• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> Autres
    Détecter les campagnes d'influence sur X avec l'IA et la science des réseaux
    Crédit :Pixabay/CC0 Domaine public

    À l’ère de l’IA générative et des grands modèles de langage (LLM), des quantités massives de contenu inauthentique peuvent être rapidement diffusées sur les plateformes de médias sociaux. En conséquence, les acteurs malveillants deviennent de plus en plus sophistiqués, détournant les hashtags, amplifiant artificiellement les contenus trompeurs et partageant massivement la propagande.



    Ces actions sont souvent orchestrées par des opérations d'information (OI) parrainées par l'État, qui tentent d'influencer l'opinion publique lors d'événements géopolitiques majeurs tels que les élections américaines, la pandémie de COVID-19, etc.

    La lutte contre ces OI n’a jamais été aussi cruciale. L'identification des campagnes d'influence à l'aide d'une technologie de haute précision réduira considérablement la classification erronée des utilisateurs légitimes comme moteurs d'IO, garantissant ainsi que les fournisseurs de médias sociaux ou les régulateurs ne suspendent pas par erreur des comptes tout en essayant de freiner les activités illicites.

    À la lumière de cela, Luca Luceri, chercheur à l’Institut des sciences de l’information de l’USC (ISI), codirige un effort visant à identifier et caractériser les campagnes d’influence sur les médias sociaux. Son article le plus récent, « Unmasking the Web of Deceit :Uncovering Cooperative Activity to Expose Information Operations on Twitter » a été présenté lors de la conférence Web du 13 mai 2024.

    "Mon équipe et moi avons travaillé sur la modélisation et l'identification des pilotes d'IO tels que les robots et les trolls au cours des cinq à dix dernières années", a déclaré Luceri. "Dans cet article, nous avons avancé nos méthodologies pour proposer une suite de modèles d'apprentissage automatique non supervisés et supervisés capables de détecter des campagnes d'influence orchestrées dans différents pays au sein de la plateforme X (anciennement Twitter)."

    Un réseau fusionné de comportements similaires

    S'appuyant sur un ensemble de données complet de 49 millions de tweets provenant de campagnes vérifiées provenant de six pays (Chine, Cuba, Égypte, Iran, Russie et Venezuela), Luceri et son équipe ont identifié cinq comportements de partage sur X auxquels participent les conducteurs IO.

    Ceux-ci incluent le co-retweet (partage de tweets identiques), la co-URL (partage des mêmes liens ou URL), la séquence de hashtag (utilisation d'une séquence identique de hashtags dans les tweets), le retweet rapide (repartage rapide du contenu des mêmes utilisateurs), et similarité du texte (tweets dont le contenu ressemble à du texte).

    Des recherches antérieures se sont concentrées sur la création de réseaux cartographiant chaque type de comportement, en examinant les similitudes entre les utilisateurs individuels sur X. Cependant, Luceri et son équipe ont remarqué que ces comptes emploient souvent plusieurs stratégies en même temps, ce qui signifiait que la surveillance d'une trace comportementale était pas assez.

    "Nous avons constaté que le co-retweet était massivement utilisé dans les campagnes à Cuba et au Venezuela", a expliqué Luceri. "Cependant, si nous examinons uniquement le co-retweet sans considérer d'autres comportements, nous obtiendrons de bons résultats dans l'identification de certaines campagnes, comme celles provenant de Cuba et du Venezuela, mais de mauvais résultats là où le co-retweet a été moins utilisé, comme dans les campagnes russes."

    Pour capturer un plus large éventail de comportements de partage coordonnés, les chercheurs ont construit un réseau de similarité unifié appelé réseau fusionné. Ensuite, ils ont appliqué des algorithmes d'apprentissage automatique alimentés par les propriétés topologiques du réseau fusionné pour classer les similitudes de ces comptes et prédire leur future participation aux IO.

    Luceri et son équipe ont découvert que cette méthode pourrait être applicable à des campagnes à travers le monde. Plusieurs utilisateurs X au sein de la même campagne, peu importe d'où ils viennent, ont fait preuve d'une remarquable similitude collective dans leurs actions.

    "Je considère notre travail comme un changement de paradigme dans les méthodes de recherche, donnant une nouvelle perspective dans l'identification des campagnes d'influence et de leurs moteurs", a déclaré Luceri.

    Débloquer de nouvelles opportunités

    Le modèle d'apprentissage automatique non supervisé exploite des fonctionnalités réseau bien connues mais sous-utilisées, atteignant une précision 42 % supérieure à celle des autres approches traditionnelles pour détecter les campagnes d'influence. Luceri considère cet article comme un point de départ qui pourrait ouvrir la voie à de nouvelles pistes de recherche.

    "Nous pouvons former des modèles sur les caractéristiques topologiques de ce réseau de similarité et les faire fonctionner dans des scénarios complexes :par exemple, si différents utilisateurs de différents pays interagissaient les uns avec les autres, ou dans des situations plus difficiles où nous disposons d'informations limitées sur les campagnes." Luceri a fait remarquer.

    Luceri a également présenté un autre article « Leveraging Large Language Models to Detect Influence Campaigns in Social Media » lors de la conférence Web, qui a reçu le prix du meilleur article de l'atelier international sur les méthodes informatiques pour l'analyse du discours en ligne (BeyondFacts'24). L'article examine le potentiel de l'utilisation des LLM pour reconnaître les signes de campagnes d'influence basées sur l'IA. Ceci est particulièrement crucial dans le climat actuel, où les médias créés par l'IA sont omniprésents.

    "Ces activités coordonnées ont des conséquences dans la vie réelle", a déclaré Luceri. "Ils ont le pouvoir de diffuser des informations erronées et des théories du complot qui pourraient conduire à des manifestations ou à des attaques contre notre démocratie, comme l'ingérence des trolls russes dans les élections américaines de 2016."

    Luceri et son équipe s'engagent à poursuivre la recherche de stratégies alternatives pour identifier les campagnes d'influence et protéger les utilisateurs susceptibles d'être influencés.

    Plus d'informations : Luca Luceri et al, Démasquer la toile de tromperie :découvrir une activité coordonnée pour exposer les opérations d'information sur Twitter, arXiv (2023). DOI :10.48550/arxiv.2310.09884

    Luca Luceri et al, Exploiter de grands modèles linguistiques pour détecter les campagnes d'influence sur les réseaux sociaux, arXiv (2023). DOI :10.48550/arxiv.2311.07816

    Informations sur le journal : arXiv

    Fourni par l'Université de Californie du Sud




    © Science https://fr.scienceaq.com