Crédit :CC0 Domaine public
Internet offre la possibilité d'un dialogue et d'une coopération constructifs, mais les conversations en ligne dégénèrent trop souvent en attaques personnelles. Dans l'espoir que ces attaques puissent être évitées, Les chercheurs de Cornell ont créé un modèle pour prédire quelles conversations civiles pourraient prendre une tournure toxique.
Après avoir analysé des centaines d'échanges sur Wikipédia, les chercheurs ont développé un programme informatique qui recherche les drapeaux rouges - tels que répétés, interrogation directe et utilisation du mot « vous » dans les deux premiers messages – pour prédire quelles conversations initialement civiles tourneraient mal.
Les premiers échanges qui comprenaient des salutations, expressions de gratitude, haies telles que "il semble, " et les mots " je " et " nous " étaient plus susceptibles de rester civils, l'étude a trouvé.
"Il y a des millions de ces discussions, et vous ne pouvez pas les surveiller tous en direct. Ce système pourrait aider les modérateurs humains à mieux diriger leur attention, " a déclaré Cristian Danescu-Niculescu-Mizil, professeur adjoint de sciences de l'information et co-auteur de l'article "Conversations Gone Awry:Detecting Early Signs of Conversational Failure".
« En tant qu'humains, nous avons l'intuition de la façon de détecter si quelque chose ne va pas, mais ce n'est qu'un soupçon. Nous ne pouvons pas le faire à 100 pour cent du temps. Par conséquent, nous nous demandons si nous pouvons construire des systèmes pour reproduire cette intuition, parce que les humains sont chers et occupés, et nous pensons que c'est le type de problème où les ordinateurs ont le potentiel de surpasser les humains, " a déclaré Danescu-Niculescu-Mizil.
Le modèle informatique, qui a également pris en compte la perspective de Google, un outil d'apprentissage automatique pour évaluer « la toxicité, " était correct environ 65% du temps. Les humains ont deviné correctement 72% du temps.
Les gens peuvent tester leur propre capacité à deviner quelles conversations vont dérailler lors d'un quiz en ligne.
L'étude a analysé 1, 270 conversations qui ont commencé civilement mais ont dégénéré en attaques personnelles, extrait de 50 millions de conversations sur 16 millions de pages de « conversation » Wikipédia, où les rédacteurs discutent d'articles ou d'autres problèmes. Ils ont examiné les échanges par paires, comparer chaque conversation qui s'est mal terminée avec celle qui a réussi sur le même sujet, les résultats n'ont donc pas été faussés par des sujets sensibles tels que la politique.
Le papier, co-écrit avec Cornell Ph.D. étudiante en sciences de l'information Justine Zhang; doctorat étudiants en informatique Jonathan P. Chang, et Yiqing Hua; Lucas Dixon et Nithum Thain de Jigsaw; et Dario Taraborelli de la Wikimedia Foundation, sera présenté à la réunion annuelle de l'Association for Computational Linguistics, du 15 au 20 juillet à Melbourne, Australie.
Les chercheurs espèrent que ce modèle pourra être utilisé pour sauver les conversations à risque et améliorer le dialogue en ligne, plutôt que d'interdire certains utilisateurs ou de censurer certains sujets. Quelques affiches en ligne, tels que les anglophones non natifs, ne réalisent peut-être pas qu'ils peuvent être perçus comme agressifs, et les avertissements d'un tel système pourraient les aider à s'adapter.
"Si j'ai des outils qui détectent les attaques personnelles, il est déjà trop tard, parce que l'attaque a déjà eu lieu et que les gens l'ont déjà vu, " dit Chang. " Mais si vous comprenez que cette conversation va dans une mauvaise direction et agissez alors, cela pourrait rendre l'endroit un peu plus accueillant."