Crédit :Pixabay/CC0 Domaine public
Nous savons que les applications collectent toutes sortes de données sur nous, et cela nous met mal à l'aise. Dans une nouvelle étude, des chercheurs de l'Université de Copenhague ont mesuré à quel point l'utilisation d'applications peut nous mettre mal à l'aise et "effrayé". Des initiatives industrielles et politiques sont nécessaires.
On pourrait penser que se sentir chroniquement mal à l'aise à propos des produits inciterait à s'en éloigner. Cependant, ce n'est pas le cas pour l'utilisation des applications. Même si les enquêtes montrent que les utilisateurs ressentent un stress émotionnel dû au fait que les applications collectent des données personnelles, nous continuons simplement à les utiliser.
"Il semble que les gens acceptent ce sentiment de malaise presque comme faisant partie de l'expérience utilisateur. D'une manière ou d'une autre, nous avons été formés pour vivre avec l'inconfort. Mais vous pouvez vous demander comment il peut être défendable de traiter les gens et leurs états émotionnels si terriblement", déclare Irina Shklovski, professeure au Département d'informatique (DIKU) de l'Université de Copenhague. Elle est auteur d'un article scientifique sur le sujet, sélectionné comme Best Paper lors de la conférence SIGCHI 2022, une conférence internationale sur les facteurs humains en informatique.
La véritable nouveauté de l'étude sous-jacente est qu'Irina Shklovski et ses collègues américains ont créé un outil permettant de mesurer le degré d'inconfort ressenti par les utilisateurs de technologies.
"Je pense que la plupart d'entre nous ont essayé de se sentir mal à l'aise lors du téléchargement d'applications, mais le plus souvent, vous ne pouvez pas vraiment mettre le doigt sur ce que pourrait être le problème. Nous avons donc décidé de créer un moyen de mesurer le degré d'inconfort", Irina Shklovski dit.
Accepter le contrat de licence ? Bien sûr !
Les chercheurs ont décomposé le problème en trois questions. Pour être effrayante, une application doit a) violer les limites de l'utilisateur ; b) le faire de manière inattendue ; et c) possèdent l'ambiguïté de la menace. Des scores élevés dans les trois catégories équivaudraient à une application très effrayante.
"On parle notamment de réponse émotionnelle ici. Même dans une situation où objectivement tout va bien, par exemple si une solution technique de protection contre l'utilisation abusive des données personnelles est en place, l'utilisateur peut quand même ressentir un malaise", déclare Irina Shklovski.
Ayant maintenant un score pour la chair de poule, les chercheurs peuvent examiner comment diverses modifications peuvent changer l'expérience des utilisateurs.
Dans l'étude, 751 participants ont été divisés en cohortes qui évalueraient leur expérience sous différents régimes. Tous les régimes comporteraient une application fictive, "Remember Music". Tout comme plusieurs applications du monde réel, Remember Music sera capable de reconnaître un air ou une chanson que vous pourriez entendre au hasard, par exemple lorsque vous marchez dans la rue :oh, je connais cette chanson, mais quelle est-elle ? L'application vous le dira.
"Tout comme dans le monde réel, les participants devraient accepter un accord de licence, et encore une fois, comme dans le monde réel, ils cliqueraient sur accepter sans réfléchir à deux fois", explique Irina Shklovski.
Le contrôle de l'utilisateur n'aide pas
Dans un régime, l'application collecterait votre position. Dans un autre régime, il commencerait bientôt à faire des suggestions sur plus de musique des artistes identifiés. Dans un autre régime encore, l'application publierait sur Facebook ce que vous écoutez. De plus, certains participants ont obtenu le contrôle de ce que faisait l'application :ils pouvaient approuver ou refuser que leurs habitudes musicales soient affichées sur Facebook.
"Nous nous attendions à ce que le groupe avec contrôle se sente plus à l'aise, mais étonnamment, ce n'est pas le cas", commente Irina Shklovski, notant qu'il s'agit d'une découverte majeure :
"Les avocats et les organisations qui travaillent à améliorer la confidentialité des données se concentrent souvent sur l'amélioration du contrôle des utilisateurs. Bien que cela puisse être souhaitable pour d'autres raisons, nos recherches montrent malheureusement que le stress émotionnel des utilisateurs ne sera pas soulagé."
Un coup porté à un dogme souvent entendu
Dans le cadre de l'expérience, les participants s'évaluaient eux-mêmes en matière de littératie numérique.
"Nous supposons normalement que les personnes qui ont un degré élevé de littératie numérique sont plus critiques envers les applications, mais encore une fois, étonnamment, c'est le contraire qui est vrai. Plus vous vous considérez comme alphabétisé numériquement, plus il est probable que vous continuiez à utiliser une application qui est envahissante », déclare Irina Shklovski.
Et encore une fois, cette découverte porte un coup à un dogme souvent entendu :
"L'industrie et les organismes publics diront qu'il s'agit d'une question d'hygiène des données personnelles. En d'autres termes, à mesure que les utilisateurs deviennent plus conscients du numérique, ils privilégieront les applications les moins intrusives par rapport aux plus intrusives. Sur la base des données de notre étude, nous pouvons dire qu'essayer de rejeter la responsabilité sur l'utilisateur de cette manière ne fonctionnera pas. Ce cheval s'est envolé. Si nous voulons que les choses s'améliorent, nous avons besoin que les développeurs et les décideurs politiques changent la donne », conclut Irina Shklovski.
La recherche a été publiée dans CHI Conference on Human Factors in Computing Systems . Un outil d'éthique immersif aide les développeurs à éviter la dystopie de l'Internet des objets