Une étude, menée par une équipe de chercheurs de l’Université de Californie à Berkeley, a analysé un vaste ensemble de données de publications Instagram et identifié plusieurs modèles d’utilisation secrète de langages. Ces modèles comprenaient :
- Euphémismes : Les utilisateurs remplacent des mots ou des expressions inoffensifs par des termes potentiellement offensants ou controversés. Par exemple, au lieu d'utiliser le mot « drogues », les utilisateurs pourraient dire « cadeaux de fête ».
- Acronymes et codes : Les utilisateurs créent des acronymes ou des codes pour représenter des sujets sensibles. Par exemple, « 420 » pourrait être utilisé pour désigner la marijuana.
- Fautes d'orthographe et fautes de frappe : Les utilisateurs orthographent intentionnellement des mots ou font des fautes de frappe pour échapper aux algorithmes de détection. En modifiant légèrement l’orthographe d’un mot, les utilisateurs peuvent rendre plus difficile l’identification et le signalement du contenu par les systèmes automatisés.
- Emojis et symboles : Les émojis et les symboles peuvent véhiculer des significations spécifiques ou représenter des sujets sensibles. Par exemple, un emoji pêche peut être utilisé pour symboliser les fesses, et un emoji couronne peut indiquer une royauté ou un statut.
- Langues étrangères : Certains utilisateurs utilisent une langue étrangère pour discuter de sujets sensibles, estimant que cela les aidera à éviter d'être détectés par des systèmes automatisés ou par des utilisateurs qui ne parlent pas la langue.
L’utilisation d’un langage secret sur Instagram présente plusieurs défis pour les modérateurs de plateforme et les forces de l’ordre. Premièrement, cela peut rendre plus difficile la détection et la suppression des contenus préjudiciables ou illégaux. Deuxièmement, cela peut permettre aux utilisateurs de se livrer à des activités qui violent les politiques de la plateforme sans craindre d'être pris. Troisièmement, cela peut créer un environnement dans lequel les utilisateurs se sentent à l’aise pour partager des informations sensibles, ce qui pourrait potentiellement conduire à une exploitation ou à un préjudice.
Pour relever ces défis, les chercheurs suggèrent que les plateformes de médias sociaux améliorent leurs algorithmes de détection afin d’identifier plus efficacement le langage secret. De plus, ils recommandent que les plateformes informent les utilisateurs sur les risques liés à l’utilisation d’un langage secret et les encouragent à signaler toute activité suspecte. Les forces de l’ordre doivent également être conscientes du langage secret utilisé sur les réseaux sociaux et élaborer des stratégies pour surveiller et enquêter sur les activités illégales potentielles.