Crédits :M. Tempter/Shutterstock
YouTube crée-t-il des extrémistes ? Une étude récente a provoqué des discussions parmi les scientifiques en faisant valoir que les algorithmes qui alimentent le site n'aident pas à radicaliser les gens en recommandant des vidéos toujours plus extrêmes, comme cela a été suggéré ces dernières années.
Le papier, soumis au journal en libre accès First Monday mais n'a pas encore été officiellement évalué par les pairs, analysé les recommandations vidéo reçues par différents types de chaînes. Il a affirmé que l'algorithme de YouTube favorise les chaînes de médias grand public par rapport au contenu indépendant, conclure que la radicalisation a plus à voir avec les personnes qui créent du contenu préjudiciable que l'algorithme du site.
Les spécialistes du domaine ont rapidement répondu à l'étude, certains critiquant les méthodes de l'article et d'autres affirmant que l'algorithme était l'un des nombreux facteurs importants et que la science des données à elle seule ne nous donnera pas la réponse.
Le problème avec cette discussion est que nous ne pouvons pas vraiment répondre à la question du rôle que joue l'algorithme de YouTube dans la radicalisation des gens parce que nous ne comprenons pas comment cela fonctionne. Et ce n'est qu'un symptôme d'un problème beaucoup plus large. Ces algorithmes jouent un rôle croissant dans notre vie quotidienne mais manquent de transparence.
Il est difficile d'affirmer que YouTube ne joue pas un rôle dans la radicalisation. Cela a été souligné pour la première fois par la sociologue de la technologie Zeynep Tufekci, qui a illustré comment les vidéos recommandées conduisent progressivement les utilisateurs vers un contenu plus extrême. Selon les mots de Tufekci, des vidéos sur le jogging mènent à des vidéos sur la course d'ultramarathons, les vidéos sur les vaccins mènent à des théories du complot, et des vidéos sur la politique mènent à des « démentis de l'Holocauste et à d'autres contenus dérangeants ».
Cela a également été écrit en détail par l'ancien employé de YouTube, Guillaume Chaslot, qui a travaillé sur l'algorithme de recommandation du site. Depuis son départ de l'entreprise, Chaslot a continué d'essayer de rendre ces recommandations plus transparentes. Il dit que les recommandations de YouTube sont biaisées en faveur des théories du complot et des vidéos factuellement inexactes, qui amènent néanmoins les gens à passer plus de temps sur le site.
En réalité, maximiser le temps de visionnage est tout l'intérêt des algorithmes de YouTube, et cela encourage les créateurs de vidéos à se battre pour attirer l'attention de toutes les manières possibles. Le manque de transparence de l'entreprise sur la façon dont cela fonctionne exactement rend presque impossible la lutte contre la radicalisation sur le site. Après tout, sans transparence, il est difficile de savoir ce qui peut être changé pour améliorer la situation.
Mais YouTube n'est pas inhabituel à cet égard. Un manque de transparence sur le fonctionnement des algorithmes est généralement le cas chaque fois qu'ils sont utilisés dans de grands systèmes, que ce soit par des entreprises privées ou des organismes publics. En plus de décider quelle vidéo vous montrer ensuite, des algorithmes d'apprentissage automatique sont maintenant utilisés pour placer les enfants dans les écoles, décider des peines de prison, déterminer les cotes de crédit et les taux d'assurance, ainsi que le sort des immigrés, candidats à l'emploi et candidats à l'université. Et généralement, nous ne comprenons pas comment ces systèmes prennent leurs décisions.
Les chercheurs ont trouvé des moyens créatifs de montrer l'impact de ces algorithmes sur la société, que ce soit en examinant la montée de la droite réactionnaire ou la diffusion des théories du complot sur YouTube, ou en montrant comment les moteurs de recherche reflètent les préjugés racistes des personnes qui les créent.
Les systèmes d'apprentissage automatique sont généralement volumineux, complexe, et opaque. À juste titre, ils sont souvent décrits comme des boîtes noires, où entrent les informations, et des informations ou des actions sortent, mais personne ne peut voir ce qui se passe entre les deux. Cela signifie que, comme nous ne savons pas exactement comment fonctionnent les algorithmes comme le système de recommandation YouTube, essayer de comprendre le fonctionnement du site reviendrait à essayer de comprendre une voiture sans ouvrir le capot.
À son tour, cela signifie qu'essayer d'écrire des lois pour réglementer ce que les algorithmes devraient ou ne devraient pas faire devient un processus aveugle ou des essais et des erreurs. C'est ce qui se passe avec YouTube et avec tant d'autres algorithmes d'apprentissage automatique. Nous essayons d'avoir notre mot à dire sur leurs résultats, sans vraiment comprendre comment ils fonctionnent réellement. Nous devons ouvrir ces technologies brevetées, ou du moins les rendre suffisamment transparents pour que nous puissions les réglementer.
Explications et tests
Une façon de le faire serait que les algorithmes fournissent des explications contrefactuelles avec leurs décisions. Cela signifie travailler sur les conditions minimales nécessaires pour que l'algorithme prenne une décision différente, sans décrire toute sa logique. Par exemple, un algorithme prenant des décisions concernant les prêts bancaires pourrait produire un résultat indiquant que « si vous aviez plus de 18 ans et n'aviez aucune dette antérieure, vous feriez accepter votre prêt bancaire." Mais cela peut être difficile à faire avec YouTube et d'autres sites qui utilisent des algorithmes de recommandation, comme en théorie, toute vidéo sur la plate-forme pourrait être recommandée à tout moment.
Un autre outil puissant est le test et l'audit d'algorithmes, qui a été particulièrement utile dans le diagnostic des algorithmes biaisés. Dans une affaire récente, une entreprise professionnelle de sélection de CV a découvert que son algorithme donnait la priorité à deux facteurs comme meilleurs prédicteurs de la performance au travail :si le nom du candidat était Jared, et s'ils jouaient à la crosse au lycée. C'est ce qui arrive lorsque la machine n'est pas surveillée.
Dans ce cas, l'algorithme de sélection des CV avait remarqué que les hommes blancs avaient plus de chances d'être embauchés, et avait trouvé des caractéristiques de substitution corrélées (comme être nommé Jared ou jouer à la crosse) présentes chez les candidats embauchés. Avec YouTube, l'audit des algorithmes pourrait aider à comprendre quels types de vidéos sont prioritaires pour la recommandation et peut-être aider à régler le débat sur la question de savoir si les recommandations de YouTube contribuent ou non à la radicalisation.
L'introduction d'explications contrefactuelles ou l'utilisation d'un audit d'algorithme est une tâche difficile, processus coûteux. Mais c'est important, parce que l'alternative est pire. Si les algorithmes ne sont ni contrôlés ni réglementés, nous pourrions voir un glissement progressif de théoriciens du complot et d'extrémistes dans nos médias, et notre attention contrôlée par celui qui peut produire le contenu le plus rentable.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.