Le nudging peut-il nous aider à acheter de manière plus durable ? Crédit :BearFotos/Shutterstock
À la fin de l'année dernière (2021), la première analyse complète des recherches antérieures sur les techniques conçues pour changer le comportement des gens (connues sous le nom de "nudging") a suscité beaucoup d'enthousiasme, montrant avec confiance qu'elles fonctionnent. C'était une excellente nouvelle pour les chercheurs, mais aussi pour les gouvernements du monde entier qui ont investi dans des "unités de coup de pouce" qui utilisent de telles méthodes.
Les nudges visent à influencer les gens à prendre de meilleures décisions. Par exemple, les autorités peuvent définir un "meilleur" choix, comme le don de vos organes, par défaut. Ou ils pourraient rendre une option alimentaire saine plus attrayante grâce à l'étiquetage.
Mais de nouvelles recherches examinant cet article – qui avaient examiné 212 articles publiés impliquant plus de 2 millions de participants – et d'autres préviennent maintenant que les coups de coude peuvent n'avoir aucun effet sur le comportement.
Pour comprendre pourquoi, nous devons entrer dans quelques détails sur les statistiques et sur la manière dont les résultats expérimentaux sont analysés et interprétés. Les chercheurs partent de l'hypothèse qu'il n'y a pas d'effet (hypothèse nulle). Ils demandent alors quelle est la probabilité d'obtenir un effet réel par hasard ?
Donc, si dans mon expérience il y a un groupe de personnes qui sont exposées à une technique de coup de pouce spécifique et un groupe témoin qui n'est pas poussé, mon point de départ est que les deux groupes ne différeront pas. Si je trouve ensuite une différence, j'utilise des statistiques pour déterminer la probabilité que cela se soit produit par hasard seul. C'est ce qu'on appelle la valeur P, et plus elle est faible, mieux c'est. Une grande valeur de p signifierait que les différences entre les deux groupes s'expliquent en grande partie par le hasard.
L'inverse est vrai pour les tailles d'effet. Il est également important de mesurer la taille de l'effet pour évaluer la valeur pratique d'une expérience. Imaginez que je teste un nudge censé aider les personnes obèses à réduire leur poids, et j'observe que les personnes du groupe nudged perdent une livre en six mois. Bien que cette différence puisse être significative (j'obtiens une faible valeur p), je pourrais à juste titre me demander si cet effet est suffisamment important à des fins pratiques.
Ainsi, alors que les valeurs de p nous fournissent une indication de la probabilité qu'une différence observée soit uniquement due au hasard, les tailles d'effet nous indiquent l'ampleur (et donc la pertinence) de l'effet.
Une bonne étude doit montrer une taille d'effet modérée ou importante, mais elle doit également indiquer dans quelle mesure celle-ci est le résultat d'un "biais de publication". Il s'agit de la sélection des résultats pour montrer une victoire pour le nudge, ce qui signifie que les études concluant que les nudges ne fonctionnent pas ne sont pas incluses ni même publiées en premier lieu. Cela peut être dû au fait que les éditeurs et les réviseurs de revues scientifiques veulent voir des résultats montrant qu'une expérience a fonctionné - cela rend la lecture plus intéressante, après tout.
Les auteurs de l'étude originale de 2021, qui ont signalé une taille d'effet modérée du coup de pouce sur le comportement, ont exclu un biais de publication suffisamment grave pour avoir une influence majeure sur la taille d'effet raisonnable qu'ils ont trouvée.
Problème de coup de pouce
Cependant, deux choses se sont produites depuis. Cette année, un collègue et moi avons souligné que, quels que soient les résultats de 2021, il existe toujours des problèmes généraux avec la science du nudge. Par exemple, les scientifiques s'appuient trop sur certains types d'expériences. Et souvent, ils ne tiennent pas compte des avantages par rapport aux coûts réels de l'utilisation des nudges, ni ne déterminent si les nudges sont en fait la véritable raison des effets positifs sur le comportement.
De nombreux chercheurs ont également commencé à devenir de plus en plus méfiants quant à l'ampleur de l'effet rapporté de l'étude de 2021. Certains ont demandé que le document soit retiré après avoir découvert que les données analysées semblaient inclure des études qui avaient utilisé des données falsifiées.
Et maintenant une nouvelle étude, publiée dans PNAS , a réexaminé l'impact estimé du biais de publication dans l'étude de 2021. Les auteurs du nouvel article ont utilisé leurs propres méthodes statistiques et évalué la gravité du biais de publication ainsi que son impact sur la taille réelle de l'effet. Ils ont montré que la taille de l'effet d'origine des 212 études n'était pas réellement modérée :elle était nulle.
À quel point tout cela est-il mauvais ? D'un point de vue scientifique, c'est excellent. Les chercheurs entament un processus de collecte de données pour éclairer les hypothèses générales sur l'efficacité des nudges. D'autres chercheurs inspectent les mêmes données et analyses, puis proposent une révision des conclusions. Tout avance comme le devrait la science.
À quel point est-ce mauvais pour le coup de pouce ? L'investissement y est énorme. Les chercheurs, les gouvernements, ainsi que des organisations telles que l'Organisation mondiale de la santé utilisent les coups de pouce comme méthode standard de changement de comportement. Ainsi, un énorme fardeau a été placé sur les épaules des nudgers. Cela peut également avoir entraîné un grave biais de publication, car tant de personnes ont été investies pour le montrer au travail.
À l'heure actuelle, la meilleure science dont nous disposons remet sérieusement en question l'efficacité du nudge. Mais beaucoup, y compris moi-même, le savent depuis longtemps - passant de nombreuses années à commenter attentivement les différentes façons dont la recherche sur le nudge doit s'améliorer, et ont été largement ignorées.
Cela dit, les efforts visant à utiliser des interventions comportementales ne doivent pas être abandonnés. Une meilleure façon d'avancer serait de se concentrer sur la constitution d'une base de preuves montrant quelles combinaisons de nudges et d'autres approches fonctionnent ensemble. Par exemple, comme je l'ai montré, les combinaisons de méthodes d'encouragement avec des modifications de la fiscalité et des subventions ont un effet plus fort sur la consommation durable que l'une ou l'autre mises en œuvre seules.
Cela soulage le fait que le nudge est le seul responsable du changement de comportement, d'autant plus que seul, il ne fait pas grand-chose. En fait, comment pourrait-il? Étant donné la complexité du comportement humain, comment une seule approche pourrait-elle jamais espérer le changer ? Il n'y a pas un seul exemple de ce qui a été fait avec succès dans l'histoire, du moins pas sans empiéter sur les droits de l'homme.
Comme je l'ai déjà montré, si nous sommes honnêtes quant à la possibilité d'un échec, nous pouvons l'utiliser pour apprendre ce qu'il faut faire mieux.
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l'article d'origine. Nudges :quatre raisons de douter de la technique populaire pour façonner le comportement des gens