Crédit :Ecole Polytechnique Fédérale de Lausanne
Des algorithmes sont utilisés pour personnaliser notre fil d'actualité sur les réseaux sociaux. Mais le risque est que les points de vue qui nous sont présentés deviennent de plus en plus limités et extrêmes. Des chercheurs de l'EPFL ont développé une solution qui rendrait les contenus personnalisés des utilisateurs plus équilibrés, et leur projet a déjà suscité l'intérêt des militants des droits humains.
Lorsque vous cliquez sur un lien plutôt que sur un autre, votre choix influencera le contenu qui vous sera présenté par divers sites Web plus tard. Les algorithmes utilisés par les plateformes de médias sociaux comme Facebook apprennent quelles sont nos préférences et fournissent de plus en plus de contenu qui correspond à nos intérêts. Le risque est qu'on ne nous montre jamais rien qui va à l'encontre de nos opinions, et cela peut fausser notre vision du monde. "En sélectionnant toujours plus soigneusement ce que nous voyons, ces algorithmes déforment la réalité. Les plateformes de médias sociaux deviennent effectivement des chambres d'écho dans lesquelles les opinions peuvent devenir de plus en plus extrêmes, " explique Elisa Celis, chercheur senior à la Faculté des sciences de l'informatique et de la communication (IC) de l'EPFL.
Et cela peut avoir un impact sur le lecteur. "De nombreuses études ont montré que si vous êtes indécis à propos de quelque chose, votre décision sera en fin de compte influencée par la fréquence et l'ordre dans lesquels les informations vous seront présentées. Ainsi, ces algorithmes peuvent réellement façonner votre opinion sur la base de données biaisées, " dit Celis. En réponse à ce problème, Celis a travaillé avec Nisheeth Vishnoi, professeur à la Faculté des sciences de l'informatique et de la communication (IC) de l'EPFL, développer un système pour éviter que les utilisateurs ne soient alimentés par un contenu totalement unilatéral.
Un algorithme tout aussi efficace
Ils ont conçu un algorithme qui peut être modifié pour garantir que les utilisateurs voient un minimum de contenu diversifié. « Une plate-forme de médias sociaux pourrait, par exemple, choisir d'avoir des opinions opposées à celles de l'utilisateur qui représentent au moins 10 % du fil d'actualité pour garantir que la vision du monde de l'utilisateur reste plus équilibrée, " expliquent les chercheurs. L'algorithme pourrait être facilement intégré dans les systèmes actuels. Le principal défi est d'embarquer les grandes entreprises. " Pour des plateformes comme Facebook, ces algorithmes doivent être efficaces afin de générer des revenus publicitaires. Nous avons voulu montrer qu'il est possible de créer un algorithme tout aussi efficace mais qui permet de personnaliser le contenu de manière plus juste et plus équilibrée, " explique Vishnoï.
La sensibilisation des gouvernements à cette question sera un facteur clé lorsqu'il s'agira de combler le vide législatif dans ce domaine. Plusieurs organisations de défense des droits humains ont déjà manifesté leur intérêt pour le projet des chercheurs, qu'ils ont récemment présenté aux délégués des agences des droits de l'homme à Genève, y compris aux membres du Haut-Commissariat des Nations Unies aux droits de l'homme. « Ces algorithmes sont actuellement totalement non régulés car l'impact des biais qu'ils génèrent n'est pas encore bien compris. En tant que citoyen, Je me sens impuissant parce que je n'ai aucun contrôle sur le contenu que je vois. La situation actuelle pourrait s'avérer assez dangereuse pour la démocratie. Nous devons vraiment chercher des solutions alternatives, " ajoute Vishnoï.