A lui seul, le jugement humain peut être subjectif et biaisé en faveur de préjugés personnels.
Les informations que nous rencontrons en ligne tous les jours peuvent être trompeuses, incomplet ou fabriqué.
Être exposé à de « fausses nouvelles » sur les plateformes de médias sociaux telles que Facebook et Twitter peut influencer nos pensées et nos décisions. Nous avons déjà vu la désinformation interférer avec les élections aux États-Unis.
Le fondateur de Facebook, Mark Zuckerberg, a proposé à plusieurs reprises l'intelligence artificielle (IA) comme solution au dilemme des fausses nouvelles.
Cependant, le problème nécessite probablement des niveaux élevés d'implication humaine, car de nombreux experts s'accordent à dire que les technologies de l'IA doivent encore progresser.
Moi et deux collègues avons reçu un financement de Facebook pour mener de manière indépendante des recherches sur une approche d'IA "humaine dans la boucle" qui pourrait aider à combler le fossé.
Human-in-the-loop fait référence à l'implication d'humains (utilisateurs ou modérateurs) pour aider l'IA à faire son travail. Par exemple, en créant des données d'entraînement ou en validant manuellement les décisions prises par l'IA.
Notre approche combine la capacité de l'IA à traiter de grandes quantités de données avec la capacité des humains à comprendre le contenu numérique. Il s'agit d'une solution ciblée aux fake news sur Facebook, étant donné son échelle massive et son interprétation subjective.
L'ensemble de données que nous compilons peut être utilisé pour entraîner l'IA. Mais nous voulons aussi que tous les utilisateurs des réseaux sociaux soient plus conscients de leurs propres préjugés, quand il s'agit de ce qu'ils appellent les fausses nouvelles.
Les humains ont des préjugés, mais aussi des connaissances uniques
Pour éradiquer les fausses nouvelles, demander aux employés de Facebook de prendre des décisions éditoriales controversées est problématique, comme nos recherches l'ont révélé. En effet, la façon dont les gens perçoivent le contenu dépend de leur origine culturelle, idées politiques, Les préjugés, et stéréotypes.
Facebook a employé des milliers de personnes pour la modération de contenu. Ces modérateurs passent huit à dix heures par jour à regarder du matériel explicite et violent comme la pornographie, terrorisme, et décapitations, pour décider quel contenu est acceptable pour les utilisateurs.
Considérez-les comme des cyber-concierges qui nettoient nos réseaux sociaux en supprimant le contenu inapproprié. Ils jouent un rôle essentiel dans la formation de ce avec quoi nous interagissons.
Une approche similaire pourrait être adaptée aux fake news, en demandant aux modérateurs de Facebook quels articles devraient être supprimés et lesquels devraient être autorisés.
Les systèmes d'IA pourraient le faire automatiquement à grande échelle en apprenant ce que sont les fausses nouvelles à partir d'exemples annotés manuellement. Mais même lorsque l'IA peut détecter un contenu "interdit", des modérateurs humains sont nécessaires pour signaler le contenu controversé ou subjectif.
Un exemple célèbre est l'image Napalm Girl.
La photographie lauréate du prix Pulitzer montre des enfants et des soldats s'échappant de l'explosion d'une bombe au napalm pendant la guerre du Vietnam. L'image a été publiée sur Facebook en 2016 et supprimée car elle montrait une fillette nue de neuf ans, contrevenant aux normes communautaires officielles de Facebook.
Une importante protestation communautaire a suivi, comme l'image iconique avait une valeur historique évidente, et Facebook a autorisé le retour de la photo sur sa plateforme.
Utiliser le meilleur des cerveaux et des bots
Dans le cadre de la vérification des informations, le jugement humain peut être subjectif et biaisé en fonction des antécédents et des préjugés implicites d'une personne.
Dans notre recherche, nous visons à collecter plusieurs « étiquettes de vérité » pour le même élément d'actualité auprès de quelques milliers de modérateurs. Ces étiquettes indiquent le niveau de « fausseté » d'un article de presse.
Plutôt que de simplement collecter les étiquettes les plus populaires, nous voulons également enregistrer les antécédents des modérateurs et leurs jugements spécifiques pour suivre et expliquer l'ambiguïté et la controverse dans les réponses.
Nous compilerons les résultats pour générer un ensemble de données de haute qualité, ce qui peut nous aider à expliquer les cas avec des niveaux élevés de désaccord entre les modérateurs.
Actuellement, Le contenu de Facebook est traité comme binaire :il est soit conforme aux normes, soit non.
L'ensemble de données que nous compilons peut être utilisé pour former l'IA à mieux identifier les fausses nouvelles en lui apprenant quelles nouvelles sont controversées et lesquelles sont purement et simplement fausses. Les données peuvent également aider à évaluer l'efficacité de l'IA actuelle dans la détection des fausses nouvelles.
Pouvoir au peuple
Alors que les références pour évaluer les systèmes d'IA capables de détecter les fausses nouvelles sont importantes, nous voulons aller plus loin.
Au lieu de demander uniquement à l'IA ou à des experts de décider quelles nouvelles sont fausses, nous devrions apprendre aux utilisateurs des médias sociaux à identifier eux-mêmes ces éléments. Nous pensons qu'une approche visant à favoriser l'alphabétisation en matière de crédibilité de l'information est possible.
Dans nos recherches en cours, nous recueillons une vaste gamme de réponses d'utilisateurs pour identifier un contenu d'actualité crédible.
Bien que cela puisse nous aider à créer des programmes de formation en IA, il permet également d'étudier le développement des compétences de modérateur humain dans la reconnaissance de contenus crédibles, car ils effectuent des tâches d'identification de fausses nouvelles.
Ainsi, nos recherches peuvent aider à concevoir des tâches ou des jeux en ligne visant à former les utilisateurs de médias sociaux à reconnaître des informations fiables.
Autres pistes
Le problème des fausses nouvelles est abordé de différentes manières sur les plateformes en ligne.
Il est assez souvent supprimé par une approche ascendante, où les utilisateurs signalent un contenu inapproprié, qui est ensuite examiné et supprimé par les employés de la plateforme.
L'approche adoptée par Facebook consiste à rétrograder le contenu non fiable plutôt que de le supprimer.
Dans chaque cas, le besoin pour les gens de prendre des décisions sur l'adéquation du contenu demeure. Le travail des utilisateurs et des modérateurs est crucial, car les humains sont nécessaires pour interpréter les directives et décider de la valeur du contenu numérique, surtout si c'est controversé.
Ce faisant, ils doivent essayer de regarder au-delà des différences culturelles, biais et frontières.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.