• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les utilisateurs font autant confiance à l'IA qu'aux humains pour signaler les contenus problématiques

    Crédit :domaine public Unsplash/CC0

    Selon des chercheurs de Penn State, les utilisateurs de médias sociaux peuvent faire autant confiance à l'intelligence artificielle (IA) qu'aux éditeurs humains pour signaler les discours de haine et les contenus préjudiciables.

    Les chercheurs ont déclaré que lorsque les utilisateurs pensent aux attributs positifs des machines, comme leur précision et leur objectivité, ils font davantage confiance à l'IA. Cependant, si on rappelle aux utilisateurs l'incapacité des machines à prendre des décisions subjectives, leur confiance est moindre.

    Les résultats peuvent aider les développeurs à concevoir de meilleurs systèmes de curation de contenu alimentés par l'IA qui peuvent gérer les grandes quantités d'informations actuellement générées tout en évitant la perception que le matériel a été censuré ou classé de manière inexacte, a déclaré S. Shyam Sundar, professeur James P. Jimirro de Media Effects au Donald P. Bellisario College of Communications et co-directeur du Media Effects Research Laboratory.

    "Il y a ce besoin urgent de modération de contenu sur les réseaux sociaux et plus généralement sur les médias en ligne", a déclaré Sundar, qui est également affilié à l'Institute for Computational and Data Sciences de Penn State. "Dans les médias traditionnels, nous avons des éditeurs de nouvelles qui servent de gardiens. Mais en ligne, les portes sont si grandes ouvertes, et le contrôle d'accès n'est pas nécessairement faisable pour les humains, en particulier avec le volume d'informations générées. Ainsi, avec l'industrie de plus en plus s'orientant vers des solutions automatisées, cette étude examine la différence entre les modérateurs de contenu humains et automatisés, en termes de réaction des utilisateurs."

    Les éditeurs humains et IA ont des avantages et des inconvénients. Selon Maria D. Molina, professeure adjointe de publicité et de relations publiques, Michigan State, qui est le premier auteur de l'étude, les humains ont tendance à évaluer plus précisément si le contenu est préjudiciable, par exemple lorsqu'il est raciste ou pourrait potentiellement provoquer l'automutilation. . Cependant, les gens sont incapables de traiter les grandes quantités de contenu qui sont maintenant générés et partagés en ligne.

    D'un autre côté, alors que les éditeurs d'IA peuvent analyser rapidement le contenu, les gens se méfient souvent de ces algorithmes pour faire des recommandations précises, et craignent que l'information ne soit censurée.

    "Lorsque nous pensons à la modération automatisée du contenu, cela soulève la question de savoir si les éditeurs d'intelligence artificielle empiètent sur la liberté d'expression d'une personne", a déclaré Molina. "Cela crée une dichotomie entre le fait que nous avons besoin de modération de contenu - parce que les gens partagent tout ce contenu problématique - et, en même temps, les gens s'inquiètent de la capacité de l'IA à modérer le contenu. Donc, en fin de compte, nous voulons savoir comment nous pouvons créer des modérateurs de contenu IA auxquels les gens peuvent faire confiance d'une manière qui n'empiète pas sur cette liberté d'expression."

    Transparence et transparence interactive

    Selon Molina, réunir les gens et l'IA dans le processus de modération peut être un moyen de construire un système de modération de confiance. Elle a ajouté que la transparence - ou signaler aux utilisateurs qu'une machine est impliquée dans la modération - est une approche pour améliorer la confiance dans l'IA. Cependant, permettre aux utilisateurs de proposer des suggestions aux IA, ce que les chercheurs appellent la "transparence interactive", semble renforcer encore plus la confiance des utilisateurs.

    Pour étudier la transparence et la transparence interactive, entre autres variables, les chercheurs ont recruté 676 participants pour interagir avec un système de classification de contenu. Les participants ont été assignés au hasard à l'une des 18 conditions expérimentales, conçues pour tester comment la source de modération - IA, humaine ou les deux - et la transparence - régulière, interactive ou sans transparence - pourraient affecter la confiance du participant dans les éditeurs de contenu IA. Les chercheurs ont testé les décisions de classification, à savoir si le contenu était classé comme « signalé » ou « non signalé » pour être nuisible ou haineux. Le contenu du test « préjudiciable » traitait des idées suicidaires, tandis que le contenu du test « haineux » incluait le discours de haine.

    Entre autres découvertes, les chercheurs ont constaté que la confiance des utilisateurs dépend de la question de savoir si la présence d'un modérateur de contenu IA invoque des attributs positifs des machines, tels que leur précision et leur objectivité, ou des attributs négatifs, tels que leur incapacité à porter des jugements subjectifs sur les nuances de l'humain. langue.

    Donner aux utilisateurs la possibilité d'aider le système d'IA à décider si les informations en ligne sont nuisibles ou non peut également renforcer leur confiance. Les chercheurs ont déclaré que les participants à l'étude qui ajoutaient leurs propres termes aux résultats d'une liste de mots sélectionnés par l'IA et utilisés pour classer les publications faisaient autant confiance à l'éditeur de l'IA qu'à un éditeur humain.

    Préoccupations éthiques

    Sundar a déclaré que soulager les humains de la révision du contenu va au-delà du simple fait de donner aux travailleurs un répit après une corvée fastidieuse. Embaucher des éditeurs humains pour la corvée signifie que ces travailleurs sont exposés à des heures d'images et de contenus haineux et violents, a-t-il déclaré.

    "Il existe un besoin éthique de modération automatisée du contenu", a déclaré Sundar, qui est également directeur du Center for Socially Responsible Artificial Intelligence de Penn State. "Il est nécessaire de protéger les modérateurs de contenu humains, qui apportent un bénéfice social lorsqu'ils agissent ainsi, contre une exposition constante à des contenus préjudiciables jour après jour."

    Selon Molina, les travaux futurs pourraient examiner comment aider les gens non seulement à faire confiance à l'IA, mais aussi à la comprendre. La transparence interactive peut également être un élément clé pour comprendre l'IA, a-t-elle ajouté.

    "Ce qui est vraiment important, ce n'est pas seulement la confiance dans les systèmes, mais aussi l'engagement des gens de manière à ce qu'ils comprennent réellement l'IA", a déclaré Molina. "Comment pouvons-nous utiliser ce concept de transparence interactive et d'autres méthodes pour aider les gens à mieux comprendre l'IA ? Comment pouvons-nous présenter au mieux l'IA afin qu'elle invoque le juste équilibre entre l'appréciation des capacités de la machine et le scepticisme quant à ses faiblesses ? Ces questions méritent d'être étudiées. ."

    Les chercheurs présentent leurs découvertes dans le numéro actuel du Journal of Computer-Mediated Communication . + Explorer plus loin

    La modération du contenu en ligne augmente la responsabilité, mais peut nuire à certains utilisateurs de la plateforme




    © Science https://fr.scienceaq.com