Crédit :CC0 Domaine public
Une équipe de chercheurs, y compris le corps professoral de l'Université de Binghamton, ont développé des algorithmes d'apprentissage automatique capables d'identifier avec succès les intimidateurs et les agresseurs sur Twitter avec une précision de 90 %.
Les outils efficaces pour détecter les actions nuisibles sur les réseaux sociaux sont rares, car ce type de comportement est souvent de nature ambiguë et/ou manifesté par des commentaires et des critiques apparemment superficiels. Dans le but de combler cette lacune, une équipe de recherche comprenant l'informaticien de l'Université de Binghamton Jeremy Blackburn a analysé les modèles de comportement présentés par les utilisateurs abusifs de Twitter et leurs différences par rapport aux autres utilisateurs de Twitter.
« Nous avons créé des robots d'exploration, des programmes qui collectent des données sur Twitter via divers mécanismes, " a déclaré Blackburn. "Nous avons rassemblé des tweets d'utilisateurs de Twitter, leurs profils, ainsi que des choses liées au réseau (social), comme qui ils suivent et qui les suit."
Les chercheurs ont ensuite effectué un traitement du langage naturel et une analyse des sentiments sur les tweets eux-mêmes, ainsi que diverses analyses de réseaux sociaux sur les connexions entre les utilisateurs. Les chercheurs ont développé des algorithmes pour classer automatiquement deux types spécifiques de comportement offensant en ligne, c'est à dire., cyberintimidation et cyberagression. Les algorithmes ont pu identifier les utilisateurs abusifs sur Twitter avec une précision de 90 %. Il s'agit d'utilisateurs qui se livrent à des comportements de harcèlement, par exemple. ceux qui envoient des menaces de mort ou font des remarques racistes aux utilisateurs.
"En un mot, les algorithmes « apprennent » à faire la différence entre les intimidateurs et les utilisateurs typiques en pesant certaines caractéristiques à mesure qu'on leur montre plus d'exemples, " dit Blackburn.
Bien que cette recherche puisse aider à atténuer la cyberintimidation, ce n'est qu'un premier pas, dit Blackburn.
"L'un des plus gros problèmes avec les problèmes de cybersécurité est que les dommages causés sont causés aux humains, et est très difficile à 'annuler, ' », a déclaré Blackburn. « Par exemple, nos recherches indiquent que l'apprentissage automatique peut être utilisé pour détecter automatiquement les utilisateurs qui sont des cyberintimidateurs, et pourrait ainsi aider Twitter et d'autres plateformes de médias sociaux à supprimer les utilisateurs problématiques. Cependant, un tel système est finalement réactif :il n'empêche pas intrinsèquement les actions de harcèlement, il les identifie simplement à grande échelle. Et la triste vérité est que même si les comptes d'intimidation sont supprimés, même si toutes leurs attaques précédentes sont supprimées, les victimes ont encore vu et ont été potentiellement affectées par eux. »
Blackburn et son équipe explorent actuellement des techniques d'atténuation proactives pour faire face aux campagnes de harcèlement.
L'étude, « Détection de la cyberintimidation et de la cyberagression dans les médias sociaux, " a été publié dans Transactions sur le Web .