• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Biologie
    10 types de biais d'étude
    Un patient remplit un questionnaire et un journal de sommeil avant de subir une polysomnographie dans un centre du sommeil en Suisse. De quels biais les scientifiques doivent-ils être conscients lorsqu'ils mènent des études ? AMELIE-BENOIST /BSIP/Getty Images

    Arythmie, un rythme cardiaque irrégulier, est courante pendant et peu après une crise cardiaque et peut entraîner une mort prématurée. C'est pourquoi, lorsque les médicaments anti-arythmiques sont devenus disponibles au début des années 1980, ils semblaient être une percée majeure pour sauver des vies [source :Freedman].

    Le problème, bien que, était que bien que des essais à petite échelle aient montré que les médicaments arrêtaient l'arythmie, les médicaments n'ont pas réellement sauvé des vies. Au lieu, comme l'ont montré des études à plus grande échelle, les patients qui ont reçu de tels traitements étaient un tiers moins susceptible de survivre. Les chercheurs s'étaient concentrés sur l'arrêt de l'arythmie comme mesure d'efficacité plutôt que sur le problème qu'ils essayaient de résoudre, qui prévenait des décès [sources :Freedman, Hampton].

    Pourquoi les chercheurs se sont-ils trompés ? Comme l'a expliqué l'écrivain du magazine Discover David H. Freedman dans un article de 2010, les conclusions erronées sur les médicaments anti-arythmiques sont un exemple de ce qu'on appelle le effet de réverbère . L'effet porte le nom du proverbial ivrogne qui explique qu'il a perdu son portefeuille de l'autre côté de la rue, mais il la cherche sous le réverbère parce que la lumière y est meilleure. De la même manière, Dans la science, il y a une tendance à regarder et à donner plus de poids aux phénomènes qui sont plus faciles à mesurer - ce qui peut parfois conduire à une conclusion erronée.

    Mais l'effet lampadaire n'est qu'un des nombreux types de biais qui peuvent infecter les études scientifiques et les égarer. Les scientifiques considèrent le biais comme un problème si important que ces dernières années, c'est devenu un sujet de recherche lui-même, dans lequel les chercheurs utilisent l'analyse statistique et d'autres méthodes pour déterminer à quelle fréquence cela se produit et pourquoi.

    Dans cet article, nous examinerons 10 des nombreux types de biais qui peuvent influencer les résultats des études scientifiques et sociales, à commencer par un bien connu.

    Contenu
    1. Biais de confirmation
    2. Biais d'échantillonnage
    3. Biais de séléction
    4. Biais de canalisation
    5. Biais d'ordre de question
    6. Biais de l'intervieweur
    7. Biais de rappel
    8. Biais d'acquiescement
    9. Biais de publication
    10. Biais du tiroir de fichiers

    10 :Biais de confirmation

    Le biais de confirmation se produit lorsqu'un chercheur part de l'hypothèse avec laquelle il ou elle commence (« la marijuana est bénéfique/nuisible ») et façonne la méthodologie ou les résultats de l'étude pour confirmer cette prémisse, si c'est réellement justifié ou non. Krisanapong detraphiphat/Getty Images

    En 1903, quelques années après la découverte des rayons X par des chercheurs allemands, un scientifique français nommé René Blondlot a annoncé qu'il avait découvert une autre forme de rayonnement jusqu'alors inconnue :les rayons N. Ils ne pouvaient être observés qu'en vision périphérique, et vu comme une couronne lorsque l'électricité était déchargée des cristaux. Finalement, Les recherches de Blondlot ont été réfutées par un scientifique américain, Robert Bois, qui a visité le laboratoire du Français et a constaté que Blondot observait toujours les rayons N, même après que Wood ait secrètement retiré le cristal au cours de l'une des expériences.

    Mais après ça, quelque chose d'étrange s'est produit. Pendant des années, d'autres scientifiques français ont continué à publier des articles décrivant leurs observations de rayons N, comme s'ils existaient réellement. Peut-être par fierté nationaliste, Les scientifiques français voulaient voir les rayons N, et c'est ce qu'ils ont fait [sources :Lee, Simon].

    Ces résultats aux rayons N étaient un exemple extrême de l'une des raisons les plus simples et les plus largement reconnues pour lesquelles les études peuvent mal tourner — biais de confirmation . C'est à ce moment qu'un chercheur part de l'hypothèse avec laquelle il commence (« la marijuana est bénéfique/nuisible ») et façonne la méthodologie de l'étude ou l'analyse des données d'une manière qui confirme la prémisse originale, si oui ou non c'est réellement justifié [source :Sarniak]. Les profanes sont également en proie à un biais de confirmation. S'ils soutiennent (ou méprisent) un président en exercice des États-Unis, par exemple, ils ont tendance à rechercher des informations qui confirment leur point de vue et à ignorer tout ce qui le réfute.

    9 :Biais d'échantillonnage

    Grâce à un biais d'échantillonnage, le Literary Digest a prédit à tort qu'Alf Landon (à droite) battrait Franklin D. Roosevelt (à gauche) lors de l'élection présidentielle de 1936. Keystone View Company/FPG/Archive Photos/Getty Images

    Les chercheurs qui ont effectué des méta-analyses de la recherche scientifique ont découvert qu'au début, études à petite échelle - celles qui finissent par être fréquemment citées dans d'autres travaux - surestiment souvent leurs résultats [source :Fanelli, et al.].

    Cela peut arriver à cause de Biais d'échantillonnage , dans lequel les chercheurs menant de petites études fondent leurs conclusions sur un groupe qui n'est pas nécessairement représentatif de la population plus large. Les universités utilisent souvent des étudiants pour leurs études, mais les résultats pour ce groupe ne se projettent pas nécessairement sur l'ensemble de la population.

    C'est un problème que l'on constate à la fois dans les études médicales et dans la recherche en sciences sociales. Par exemple, si un chercheur en sciences politiques qui étudie les attitudes à l'égard du contrôle des armes à feu fait des enquêtes dans un domaine où la plupart des gens sont des partisans du deuxième amendement, cela faussera les résultats d'une manière qui ne reflète pas nécessairement les points de vue de la population américaine dans son ensemble.

    Mais un biais d'échantillonnage peut également se produire dans des études plus importantes. Un exemple célèbre de biais d'échantillonnage s'est produit pendant la campagne présidentielle américaine de 1936, lorsque Literary Digest a mené une enquête par courrier auprès de 2,4 millions de personnes et a prédit – à tort – que le républicain Alf Landon battrait haut la main le démocrate sortant Franklin Roosevelt. Le problème était que le magazine utilisait des annuaires téléphoniques, les inscriptions des chauffeurs et les adhésions aux country clubs pour trouver des personnes à interroger - une méthode qui avait tendance à toucher des électeurs relativement aisés (les voitures et les téléphones étaient des articles de luxe à l'époque), plutôt que les plus pauvres parmi lesquels Roosevelt était populaire. Les résultats erronés ont précipité la fin de la publication [source :Oxford Math Center].

    8 :Biais de sélection

    Vous pouvez avoir un biais de sélection si vous ne contrôlez pas toutes les variables de votre étude. Morsa Images/Getty Images

    Comment les scientifiques déterminent-ils si un nouveau médicament guérira ou aidera une maladie particulière ? Habituellement avec une étude impliquant deux groupes de personnes. Par exemple, si les scientifiques étudient l'efficacité d'un nouvel antihistaminique sur les personnes allergiques, ils donneraient le médicament d'essai à un groupe de patients et un placebo (pilule de sucre) à l'autre groupe, appelé le groupe de contrôle . Aucun des deux groupes n'est censé savoir s'ils ont reçu le médicament et les participants à l'étude sont répartis au hasard dans chaque groupe.

    C'est ce qu'on appelle un étude randomisée en double aveugle contre placebo et est considéré comme l'étalon-or des essais cliniques. Le "double aveugle" fait référence au fait que ni les scientifiques ni les participants ne savent quels patients allergiques appartiennent à quel groupe jusqu'à la fin de l'expérience.

    Il y a plusieurs raisons de le faire, mais l'une est d'éviter biais de séléction . Supposons que vous souhaitiez étudier si les personnes qui travaillent la nuit sont plus susceptibles de développer des maux de tête. Donc, vous recrutez un groupe de personnes qui travaillent la nuit, et un autre groupe qui travaille la journée, puis les comparer. Vos résultats montrent que les personnes qui travaillent la nuit sont plus susceptibles d'avoir mal aux tempes.

    Mais cela ne signifie pas nécessairement que le travail de nuit en est la cause, car il se pourrait que les personnes qui travaillent la nuit aient tendance à être plus pauvres, avoir une alimentation plus malsaine ou plus de stress. De tels facteurs peuvent biaiser vos résultats, à moins que vous ne puissiez vous assurer que les deux groupes sont similaires à tous égards, à l'exception de leurs horaires [sources :Institute for Work and Health, CIRT].

    7 :Biais de canalisation

    Dans une étude, un chirurgien de la main pourrait être plus susceptible de choisir le plus jeune, patients en meilleure santé pour se faire opérer et laisser les patients plus âgés en dehors de celle-ci, ce qui pourrait fausser les résultats de la réussite de la chirurgie pour tous. C'est ce qu'on appelle le biais de canalisation. Exclusivité Cultura RM/KaPe Schmidt/Getty Images

    Biais de canalisation se produit lorsque le pronostic ou le degré de maladie d'un patient influence le groupe dans lequel il est placé dans une étude. C'est un problème particulier dans les essais médicaux non randomisés, ceux dans lesquels les médecins sélectionnent les patients qui recevront le médicament ou la procédure chirurgicale qui va être évalué.

    Il n'est pas difficile de comprendre pourquoi cela arrive, parce que les médecins, après tout, veulent généralement aider les personnes qu'ils traitent, et sont formés pour peser les risques par rapport aux récompenses d'un traitement.

    Regardons un exemple hypothétique d'une étude destinée à évaluer l'efficacité d'une certaine intervention chirurgicale sur la main. Les chirurgiens pourraient être plus enclins à choisir les plus jeunes, des patients en meilleure santé pour se faire opérer, parce qu'ils ont moins de risques de complications par la suite, et plus d'un besoin d'avoir la pleine fonction de main.

    À son tour, ils pourraient être moins susceptibles de l'effectuer sur des patients plus âgés qui font face à des risques postopératoires plus élevés et n'ont pas besoin d'avoir le même degré de fonction de la main parce qu'ils ne travaillent plus. Si les chercheurs ne font pas attention, le groupe qui subira la chirurgie dans l'étude sera composé de patients plus jeunes, et le groupe qui ne le fera pas sera principalement des plus âgés. Cela pourrait produire un résultat très différent que si les deux groupes étaient par ailleurs identiques [source :Pannucci et Wilkins].

    6 :Biais de l'ordre des questions

    Une chercheuse demande à deux femmes ce qu'elles pensent de la création d'un service public de santé en Angleterre dans les années 40. Les questions de commande qui sont posées peuvent influencer les réponses reçues. Collection Hulton-Deutsch/CORBIS/Corbis via Getty Images

    L'ordre dans lequel les questions sont posées dans une enquête ou une étude peut influencer les réponses données. C'est parce que le cerveau humain a tendance à organiser l'information en modèles. Les questions précédentes — en particulier, ceux qui viennent juste avant une requête particulière - peuvent fournir des informations que les sujets utilisent comme contexte dans la formulation de leurs réponses ultérieures, ou affecter leurs pensées, sentiments et attitudes. Cet effet est appelé amorçage [sources : Pew, Sarniak].

    Pew Research a donné cet exemple tiré d'un sondage de décembre 2008 :« Quand on a demandé aux gens 'Dans l'ensemble, êtes-vous satisfait ou insatisfait de la façon dont les choses se passent dans ce pays aujourd'hui ?' immédiatement après qu'on lui ait demandé « Approuvez-vous ou désapprouvez-vous la manière dont George W. Bush gère son travail de président ? » ; 88 pour cent ont dit qu'ils étaient insatisfaits, contre seulement 78 % sans le contexte de la question précédente. »

    Un autre exemple de l'effet du biais de l'ordre des questions provient de l'Enquête sociale générale, une étude majeure à long terme sur les attitudes américaines. En 1984, On a demandé aux participants à l'ESG d'identifier les trois qualités les plus importantes qu'un enfant doit avoir, et donné une carte avec une liste de qualités. Lorsque « honnête » figurait en tête de liste, il a été choisi par 66 pour cent des répondants. Mais quand il s'est approché de la fin, seulement 48% des personnes l'ont choisi comme l'un de leurs trois premiers. Un schéma similaire a été observé avec d'autres qualités [source :Henning].

    5:Biais de l'intervieweur

    Un biais de l'enquêteur peut se produire dans les études médicales lorsque l'enquêteur connaît l'état de santé du sujet de recherche avant de l'interroger. GARO/Getty Images

    Non seulement les chercheurs doivent faire attention à qui ils choisissent pour être dans les groupes dans les études, mais ils doivent aussi se soucier de la manière dont ils sollicitent, enregistrer et interpréter les données qu'ils obtiennent de ces sujets. Biais de l'intervieweur , comme ce problème s'appelle, est plus un problème dans les études médicales lorsque l'enquêteur connaît l'état de santé du sujet de recherche avant de l'interroger.

    Un article de journal médical de 2010 sur la façon d'identifier et d'éviter les biais cite l'exemple hypothétique d'une étude qui tente d'identifier les facteurs de risque de la maladie de Buerger, une maladie rare dans laquelle les artères et les veines des bras et des jambes deviennent enflées et enflammées. Si l'enquêteur sait déjà qu'un sujet de recherche est atteint de la maladie, il ou elle est susceptible de sonder plus intensément les facteurs de risque connus, comme fumer. Donc, l'enquêteur peut demander aux personnes du groupe à risque, « Êtes-vous sûr de n'avoir jamais fumé ? Jamais ? Pas même une fois ?

    Un intervieweur peut également provoquer des résultats erronés dans une étude en donnant aux sujets des indices non verbaux lorsqu'ils posent des questions, comme avec des gestes ou des expressions faciales, ou ton de voix [source :Delgado, et al.].

    4:biais de rappel

    Un homme aide un enfant autiste à peindre à Abidjan, Côte d'Ivoire. Les parents d'enfants autistes sont plus susceptibles de se rappeler que leur enfant a été vacciné avant de montrer des signes d'autisme et d'établir un lien, même s'il est incorrect -- un exemple de biais de rappel SIA KAMBOU/AFP/Getty Images

    Dans les études où les gens sont interrogés sur quelque chose qui s'est passé dans le passé, leurs souvenirs peuvent être affectés par les réalités actuelles. Biais de rappel , comme ce phénomène est connu, peut être un problème majeur lorsque les chercheurs étudient les facteurs qui auraient pu conduire à un problème de santé, et les entretiens sont la principale source d'information. Par exemple, puisqu'il existe une croyance répandue - bien que non fondée - selon laquelle l'autisme est en quelque sorte causé par le vaccin contre la rougeole, les oreillons et la rubéole (ROR), les parents d'enfants autistes sont plus susceptibles de se rappeler que leur enfant a été vacciné avant de montrer des signes d'autisme, et établir un lien entre les deux événements [source :Pannucci et Wilkins].

    De la même manière, les mères d'enfants atteints de malformations congénitales peuvent être plus susceptibles de se souvenir des médicaments qu'elles ont pris pendant la grossesse que les mères d'enfants pleinement valides. Une étude a également révélé que les pilotes qui savaient qu'ils avaient été exposés à l'herbicide Agent Orange avaient une plus grande tendance à se souvenir des éruptions cutanées qu'ils avaient ressenties l'année suivant l'exposition [source :Boston College].

    3:Biais d'acquiescement

    Les gens veulent être considérés comme sympathiques, donc si vous posez des questions sur un sujet controversé, les questions doivent être formulées de manière à suggérer que toutes les réponses sont acceptables. asiseeit/Getty Images

    C'est un autre biais qui peut se produire avec les enquêtes en sciences sociales. Les gens veulent être agréables et sont donc plus susceptibles de répondre par l'affirmative à une question « oui/non » ou « d'accord/pas d'accord », en particulier s'ils sont moins instruits ou ont moins d'informations. Une façon de contourner ce biais est de demander aux participants de choisir entre deux affirmations ( le format à choix forcé ) plutôt que de les mettre d'accord ou en désaccord avec une affirmation. Les deux déclarations donneraient deux points de vue différents sur un sujet.

    Et en plus d'être agréable, les répondants au sondage veulent également être perçus comme sympathiques. "La recherche a montré que les répondants sous-estiment la consommation d'alcool et de drogues, l'évasion fiscale et les préjugés raciaux; ils peuvent également exagérer la fréquentation de l'église, contributions caritatives et la probabilité qu'ils votent lors d'une élection, " note Pew Research. Par conséquent, les questions doivent être formulées d'une manière qui donne aux participants une « sortie » pour admettre un comportement moins que souhaitable. Donc, une question sur le vote pourrait être formulée ainsi :« Lors de l'élection présidentielle de 2012 entre Barack Obama et Mitt Romney, est-ce que des choses vous ont empêché de voter, ou avez-vous voté ?"

    2 :Biais de publication

    Les revues ont une préférence pour les résultats positifs dans les études, ce qui peut empêcher la publication d'autres types d'études. Epoxydude/Getty Images

    Un type courant de biais découle d'une réalité inconfortable dans la culture scientifique. Les chercheurs ont un besoin continu de publier des articles dans des revues, afin de maintenir leur réputation et leur ascension dans le monde universitaire. Cette mentalité de publier ou de périr pourrait exercer une influence sur les résultats des hypothèses, car, comme le note un critique, le milieu universitaire a tendance à biaiser vers une valeur statistiquement significative, des résultats "positifs" [source :van Hilten].

    En effet, les méta-analyses montrent que les revues sont beaucoup plus susceptibles de publier des études qui rapportent un résultat positif statistiquement significatif que celles qui ne le font pas. Biais de publication est plus fort dans certains domaines que dans d'autres; une étude de 2010 a révélé que les articles en sciences sociales sont 2,3 fois plus susceptibles de montrer des résultats positifs que les articles en sciences physiques [source :Fanelli].

    Comme Ian Roberts, professeur d'épidémiologie et de santé publique à la London School of Hygiene and Tropical Medicine, noté dans un essai de 2015, les essais cliniques montrant qu'un traitement fonctionne sont beaucoup plus susceptibles d'être publiés que ceux montrant qu'il n'a aucun avantage ou même nocif.

    1 :Biais du tiroir de fichiers

    D'un autre côté, les scientifiques peuvent reléguer les résultats négatifs ou neutres des essais cliniques dans un tiroir de classement. noir/Getty Images

    À certains égards, c'est l'envers du biais de publication. Les résultats négatifs d'une étude sont rangés dans un tiroir métaphorique au lieu d'être publiés. Les critiques y voient un problème particulier lorsqu'il s'agit d'études sur de nouveaux médicaments, qui de nos jours sont souvent sponsorisés par les entreprises qui les ont développés [source :Pannucci et Wilkins].

    Biais du tiroir-classeur peut être important. Une étude publiée dans le New England Journal of Medicine en 2008 a comparé les résultats d'études publiées sur les antidépresseurs aux données d'un registre de recherche de la Food and Drug Administration des États-Unis qui comprenait des informations non publiées. Il a constaté que 94 pour cent des études publiées ont signalé des médicaments ayant des effets positifs. Mais lorsque les études non publiées ont été incluses, le nombre de résultats positifs est tombé à 51 % [source :Turner, et al.].

    Dans un effort pour obtenir plus d'informations dans le domaine public, Le Congrès en 2007 a adopté une loi obligeant les chercheurs à rapporter les résultats de nombreuses études humaines de traitements expérimentaux à ClinicalTrials.gov. En 2016, la Food and Drug Administration des États-Unis a renforcé les règles, nécessitant des rapports plus approfondis sur les essais cliniques, y compris les médicaments et dispositifs qui ont été étudiés mais jamais mis sur le marché [source :Piller].

    Mais certains critiques craignent que les lois n'aient pas beaucoup de mordant car il n'y a pas d'augmentation du personnel d'application.

    Beaucoup plus d'informations

    Note de l'auteur :10 types de biais d'étude

    Cette mission était intéressante pour moi, car au fil des années, j'ai souvent eu à écrire des articles basés sur des recherches scientifiques. Journalistes, Je pense, doivent éviter la tentation de supposer que la dernière étude publiée doit être le mot définitif sur n'importe quel sujet.

    Articles Liés

    • 10 conseils pour raconter les faits de la fiction
    • 10 études de recherche complètement évidentes
    • 10 études reliant des choses complètement bizarres
    • 10 signes que l'étude est fausse
    • Comment fonctionne l'examen scientifique par les pairs

    Plus de grands liens

    • Association américaine pour l'avancement des sciences
    • Scientific American :études scientifiques les plus populaires de 2016

    Sources

    • Athanasiou, Thanos, et al. « Sujets clés de la recherche et de la méthodologie chirurgicales ». Page 32. Springer, 2010. (10 sept. 2017) http://bit.ly/2vZ9rsn
    • Collège de Boston. "Mauvaise classification différentielle de l'exposition." Bu.edu. (10 sept., 2017) http://bit.ly/2vYFIQo
    • Burge, Sandra. "Biais dans la recherche." Familymed.uthscsa.edu. (9 septembre, 2017) http://bit.ly/2xXMRhl
    • Centre d'innovation dans la recherche et l'enseignement. « Sources d'erreurs et de biais. » Cirt.gcu.edu. (8 sept. 2017) http://bit.ly/2xXsLne
    • Méthodes Cochrane. "Évaluer le risque de biais dans les études incluses." Cochrane.org. (9 septembre, 2017) http://bit.ly/2xXyl8W
    • Delgado, M., et al. "Biais." Journal d'épidémiologie et de santé. août 2004. (10 sept. 2017) http://bit.ly/2vYAtQO
    • Duscheck, Jennie. "Des études de biais scientifiques ciblant les bons problèmes." Med.stanford.edu. Le 20 mars, 2017. (9 septembre, 2017) http://stan.md/2xXcCyh
    • Dwan, Kerry, et al. "Examen systématique des preuves empiriques du biais de publication d'études et du biais de rapport sur les résultats - Une révision mise à jour." PLOS UN. 5 juillet 2013. (9 septembre, 2017) http://bit.ly/2xX2a9J
    • Enserink, Martin. « La plupart des études de recherche sur les animaux peuvent ne pas éviter les principaux biais. » Science. 13 octobre 2015. (9 septembre, 2017) http://bit.ly/2xWhy6
    • Fanelli, Danièle. "Est-ce que les pressions pour publier augmentent les biais des scientifiques? Un soutien empirique des données des États-Unis." PLOS UN. 21 avril 2010. (7 sept. 2017) http://bit.ly/2xXgvD1
    • Fanelli, Danièle. "Les résultats "positifs" augmentent dans la hiérarchie des sciences." PLOS UN. 7 avril 2010. (7 sept. 2017) http://bit.ly/2xYmLKR
    • Fanelli, Danièle ; Costas, Rodrigo ; et Ioannidis, John P.A. "Méta-évaluation des biais en science." PNAS. Le 20 mars, 2017. (7 sept. 2017) http://www.pnas.org/content/114/14/3714
    • affranchi, David H. "Pourquoi les études scientifiques sont si souvent fausses :l'effet de l'éclairage public." Découvrir. 10 décembre 2010. (10 sept. 2017) http://bit.ly/2xYJTJ4
    • Hampton, John. « Mode thérapeutique et biais de publication :le cas des médicaments anti-arythmiques dans l'infarctus du myocarde. Bulletin JLL. 2015. (10 sept. 2017) http://bit.ly/2xXUN1L
    • Henning, Jeffrey. "Le biais d'ordre est une source d'erreur plus importante que vous ne le pensez." ResearchAccess.com. 1er août 2014. (10 sept. 2017) http://bit.ly/2vZdWDb
    • Institut pour le travail et la santé. "Ce que les chercheurs entendent par... biais de sélection." Iwh.on.ca. (10 sept., 2017) http://bit.ly/2xYlxzk
    • Kicinski, Michal. "Biais de publication dans les méta-analyses récentes." PLOS UN. 27 novembre 2013. (9 septembre, 2017) http://bit.ly/2xWKr29
    • Krishna, R. ; Maithreyi, R. ; Surapaneni, K.M. "Biais de la recherche :un examen pour les étudiants en médecine." Journal de recherche clinique et diagnostique. 5 avril 2010. (9 septembre, 2017). http://bit.ly/2xWJiYp
    • Lee, Chris. "Biais de confirmation en science :comment l'éviter." ArsTechnica. 13 juillet 2010. (9 septembre, 2017) http://bit.ly/2xYNmHO
    • McCook, Alison. "Qu'est-ce qui conduit au biais dans la littérature scientifique? Une nouvelle étude tente de répondre." Retractionwatch.com. Le 20 mars, 2017. (9 septembre, 2017) http://bit.ly/2xXBqGi
    • Mullan, Kévin et Williams, Michael. « Le biais de la recherche :la règle plutôt que l'exception ? Elsevier.com. 17 septembre, 2013. (9 septembre, 2017) http://bit.ly/2xXci2n
    • Centre de mathématiques d'Oxford. "Célèbres erreurs statistiques dans l'histoire." Oxfordmathcenter.edu. (10 sept., 2017) http://bit.ly/2xYi1VE
    • Pannucci, Christophe J., et Wilkins, Edwin G. "Identifier et éviter les biais dans la recherche." Chirurgie Plastique Reconstructrice. Août 2010. (9 sept. 2017) http://bit.ly/2xWIbbt
    • Pennwarden, Meule. "Ne laissez pas vos propres opinions se faufiler dans votre sondage :4 façons d'éviter les biais des chercheurs." Surveymonkey.com. 1er janvier 2015. (9 septembre, 2017) http://bit.ly/2xWBTbP
    • Centre de recherche Pew. "Conception de questionnaires." Pewresearch.org. (9 septembre, 2017) http://pewrsr.ch/2vYk0vD
    • Pilleur, Charles. "Les nouvelles règles fédérales ciblent la divulgation publique lamentable des résultats des essais cliniques." Statnews.com. 16 septembre 2016. (9 septembre, 2017) http://bit.ly/2xYpCU5
    • Roberts, Yann. "Le retrait d'articles scientifiques pour fraude ou partialité n'est que la pointe de l'iceberg." La conversation. 11 juin 2015. (9 septembre, 2017) http://bit.ly/2xWTkZD
    • Sarniak, Rébecca. "9 types de biais de recherche et comment les éviter." Quirks.com. Août 2015. (9 sept. 2017) http://bit.ly/2vWV8EQ
    • Schupak, Amanda. « À quelle fréquence les études scientifiques sont-elles retirées ? » CBS Nouvelles. 26 mai 2015. (9 septembre, 2017) http://cbsn.ws/2xXO8F9
    • Shuttleworth, Martyne. "Biais de recherche." Explorable.com. 5 février 2009. (9 sept. 2017) http://bit.ly/2xXzDRk
    • Simon, Mat. « Fantastiquement faux :le rayonnement imaginaire qui a choqué la science et ruiné son « découvreur ». » Wired. 3 septembre 2014. (10 sept. 2017) http://bit.ly/2xYwHUS
    • Cela, Michael E. "Les antidépresseurs fonctionnent-ils vraiment ? Un guide du clinicien pour évaluer les preuves." Rapports de psychiatrie actuels. Décembre 2008. (9 sept. 2017) http://bit.ly/2xWWUD5
    • Tourneur, Éric H., et al. "Publication sélective des essais sur les antidépresseurs et son influence sur l'efficacité apparente." Journal de médecine de la Nouvelle-Angleterre. 17 janvier 2008. (10 sept. 2017) http://bit.ly/2xYsGzx
    • Van Hilten, Lucy Goodchild. « Pourquoi il est temps de publier les « échecs » de la recherche ? Elsevier.com. 5 mai 2015. (10 sept. 2017) http://bit.ly/2xYyLfr
    • Whoriskey, Pierre. « Alors que l'influence de l'industrie pharmaceutique sur la recherche grandit, il en va de même du potentiel de biais. » Washington Post. 24 novembre, 2012. (9 septembre, 2017)
    © Science https://fr.scienceaq.com