• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un algorithme pour détecter quand les conversations en ligne sont susceptibles de devenir laides

    Crédit :CC0 Domaine Public

    Une équipe de chercheurs de l'Université Cornel travaillant avec la Fondation Wikimedia a mis au point un cadre numérique pour détecter quand une discussion en ligne est susceptible de devenir moche. Dans un article téléchargé sur le arXiv serveur de préimpression, l'équipe décrit leur approche et la façon dont leur algorithme a fonctionné pendant les tests.

    Comme le notent les chercheurs, les conversations en ligne peuvent souvent dégénérer en désaccords et souvent en attaques personnelles. Ils notent en outre que c'est souvent le cas lorsque les gens entrent dans un environnement qui implique des critiques, comme Wikipédia. Là, les éditeurs amateurs sont encouragés à proposer des critiques de travaux réalisés par d'autres afin d'améliorer le contenu du site Web. Malheureusement, beaucoup de gens ne réagissent pas bien à de telles critiques, et comme résultat, recourir à la publication de commentaires désagréables. L'équipe de la Wikimedia Foundation souhaite mettre un frein à de telles conversations, car en plus de favoriser les mauvais sentiments, cela donne également au site une mauvaise réputation. Pour régler le problème, l'équipe a travaillé avec le groupe à Cornell, qui ont fait des recherches sur le même problème ; à savoir, construire un système informatique capable de reconnaître quand une conversation humaine est susceptible de dégénérer en méchanceté, et soit pour le freiner, ou mettre fin à la conversation pour les personnes impliquées.

    Pour résoudre ce problème, les chercheurs ont examiné plus de 1, 200 conversations en ligne sur les pages Wikipedia Talk à la recherche d'indices linguistiques. Dans ce contexte, les indices étaient des mots qui suggéraient le comportement et le niveau de politesse. En faisant ainsi, ils ont découvert que lorsque les gens utilisaient des indices tels que « s'il vous plaît » et « merci, " il y avait moins de chance que les choses tournent mal. Il y avait aussi des phrases positives, comme « je pense » ou « je crois » qui suggéraient une tentative de garder les choses civiles, qui avait tendance à garder les choses sur un pied d'égalité. D'autre part, ils ont également trouvé des indices moins utiles, comme lorsque les conversations ont commencé avec des questions directes ou le mot « vous ». De tels indices ont eu tendance à conduire à une dégradation de la civilité à un moment donné et, les chercheurs suggèrent, sont souvent perçus par un lecteur comme hostiles et controversés.

    L'équipe a ensuite développé un algorithme qui acceptait les indices en tant que données apprises, puis analysait les phrases à la recherche de tels indices et leur appliquant une intuition humaine. Le résultat, les rapports de l'équipe, était un cadre informatisé qui pouvait reconnaître très tôt quand une conversation risquait de dégénérer en un vilain jeu de va-et-vient. Ils ont trouvé que le système était précis à 61,6%. Les humains font le même test, cependant, a obtenu 72 %.

    © 2018 Phys.org




    © Science https://fr.scienceaq.com