• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    L'exposition d'une étude sur la malhonnêteté truquée me rend fier d'être un scientifique du comportement

    Crédit :Lucky Raccoon/Shutterstock

    L'histoire a beaucoup à recommander :le psychologue Dan Ariely, l'auteur d'un livre à succès sur la science comportementale de la malhonnêteté, retire son étude parce que les données ont été falsifiées. Pas étonnant qu'il ait été repris par les médias du monde entier. Buzzfeed a déclaré qu'il s'agissait du "dernier coup porté au domaine en pleine effervescence de l'économie comportementale". Psychologue Stuart Ritchie, lui-même scientifique, a écrit à propos de l'affaire sous le titre :"Ne faites jamais confiance à un scientifique".

    Je m'inquiète de ces interprétations. Et pas parce que j'enseigne dans un programme de maîtrise en sciences du comportement. Je m'inquiète parce que des titres comme celui-ci risquent d'attiser le sentiment anti-science à un moment où la confiance dans les experts est faible, quand des gens réfléchis répètent que nous vivons dans un "monde post-vérité" et où la méfiance à l'égard de la science cause des morts.

    Mais surtout, Je m'inquiète de ces interprétations parce que je tire la conclusion inverse de cette histoire. Dans ce cas, la leçon est que le processus scientifique a bien fonctionné.

    Jeter le doute sur la science

    Un détail important et négligé est que le processus scientifique a révélé il y a des années que les résultats de l'article ne tenaient pas. En utilisant les données fournies par une compagnie d'assurance, L'étude d'Ariely a affirmé que les gens sont plus honnêtes dans leurs rapports s'ils signent une déclaration de véracité au début d'un document plutôt qu'à la fin. La méthode a été adoptée par l'IRS, l'agence américaine de recouvrement des impôts, et au moins une grande compagnie d'assurance.

    Bien que personne n'ait exprimé de crainte de fraude délibérée, de nombreuses équipes de recherche avaient signalé leurs tentatives infructueuses de reproduire les études initiales. La réplication est importante. Parce que la science est enracinée dans la probabilité, observer le même résultat à deux occasions indépendantes rend beaucoup moins probable que le résultat soit un coup de chance.

    En 2020, Ariely et ses co-auteurs ont publié un article dans lequel ils ont eux-mêmes tenté et échoué à reproduire les résultats initiaux. À ce moment-là, il n'était pas encore apparu que les données initiales avaient été falsifiées. Les auteurs ont conclu que les résultats initiaux étaient un coup de chance et ont intitulé le document de suivi :« Signer au début plutôt qu'à la fin ne diminue pas la malhonnêteté. »

    Une autre caractéristique frappante est que les réplications échouées ont été publiées dans l'une des meilleures revues scientifiques générales. C'est un développement récent que les scientifiques consacreraient leur temps à des études de réplication - et que les meilleures revues consacreraient de précieuses colonnes à leur publication - et suit une série d'études statistiques qui jettent le doute sur la rigueur de la science publiée.

    Tout d'abord, l'étude de simulation de données provocatrice qui a suggéré que plus de la moitié des résultats publiés de la recherche scientifique sont faux. Ce constat découle des trois caractéristiques suivantes :

  • Certains résultats sont des coups de chance.
  • De nouveaux résultats sont trouvés tout le temps.
  • Des résultats inattendus et accrocheurs sont plus susceptibles d'être publiés.
  • Ensuite, il y a eu le projet de réplication de Many Labs. Il a constaté que plus de la moitié des résultats publiés dans les meilleures revues de psychologie ne pouvaient pas être reproduits.

    Exposer de faux résultats

    Certaines contributions perspicaces proviennent des sciences du comportement, qui comprend plusieurs disciplines qui examinent le comportement humain et l'interaction, et travaille à l'intersection des statistiques, économie et psychologie. L'une de ces idées était que les scientifiques peuvent publier de faux résultats même sans le savoir.

    Pour avoir une idée de cela, il faut d'abord savoir que la communauté scientifique considère qu'un résultat apporte une preuve si le résultat dépasse un seuil. Ce seuil est mesuré comme une valeur p, avec p signifiant probabilité. Des valeurs p inférieures indiquent des résultats plus fiables. Un résultat passe le seuil de preuve fiable ou, dans le langage des sciences, est statistiquement significatif, si sa valeur p est inférieure à un certain seuil, par exemple, p <0,05.

    Intentionnellement ou non, les chercheurs gonflent les chances d'obtenir des résultats statistiquement significatifs en s'engageant dans des pratiques de recherche douteuses. Dans une enquête publiée en 2012, une majorité de psychologues ont indiqué qu'ils testaient leur théorie en mesurant plus d'un résultat, puis rapportaient les résultats uniquement sur le résultat qui atteint une signification statistique. Vraisemblablement, ils ont admis ce comportement parce qu'ils n'ont pas reconnu qu'il augmente les chances de tirer une conclusion incorrecte.

    Uri Simonsohn, Leif Nelson et Joe Simmons, un trio de spécialistes du comportement qui sont régulièrement décrits comme des « détectives de données, " a conçu un test pour déterminer si une conclusion est susceptible d'être dérivée de pratiques de recherche douteuses. Le test examine si les preuves à l'appui d'une allégation sont regroupées de manière suspecte juste en dessous du seuil de signification statistique.

    C'est ce test qui a démystifié l'idée de "power posing" - l'affirmation largement médiatisée selon laquelle vous pouvez mieux performer dans des situations stressantes si vous adoptez une posture physique affirmée, comme les mains sur les hanches.

    Maintenant, les trois détectives de données ont recommencé. C'est sur leur blog que les faits frappants et sensationnels de l'étude sur la malhonnêteté d'Ariely ont été exposés. Contrairement à l'affirmation de Buzzfeed selon laquelle cette affaire porte un coup à l'économie comportementale, cela démontre en fait comment la science du comportement nous a conduit à extirper des résultats bidons. Exposer cette mauvaise pomme, et les techniques fascinantes employées pour le faire, constitue en fait une victoire pour les scientifiques du comportement.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com