• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Mathen
    Comment interpréter la régression hiérarchique

    La régression hiérarchique est une méthode statistique qui permet d'explorer les relations entre une variable dépendante et plusieurs variables indépendantes et de tester des hypothèses à ce sujet. La régression linéaire nécessite une variable dépendante numérique. Les variables indépendantes peuvent être numériques ou catégoriques. La régression hiérarchique signifie que les variables indépendantes ne sont pas entrées simultanément dans la régression, mais par étapes. Par exemple, une régression hiérarchique pourrait examiner les relations entre la dépression (mesurée par une échelle numérique) et les variables incluant la démographie (comme l'âge, le sexe et le groupe ethnique) dans la première étape et d'autres variables (comme les résultats d'autres tests) dans un deuxième temps.

    Interpréter la première étape de la régression.

    Regardez le coefficient de régression non normalisé (que l'on peut appeler B sur votre sortie) pour chaque variable indépendante. Pour les variables indépendantes continues, ceci représente la variation de la variable dépendante pour chaque changement d'unité de la variable indépendante. Dans l'exemple, si l'âge avait un coefficient de régression de 2,1, cela signifierait que la valeur prédite de la dépression augmente de 2,1 unités pour chaque année d'âge.

    Pour les variables catégoriques, la sortie devrait afficher un coefficient de régression pour chaque niveau de la variable sauf un; celui qui manque est appelé le niveau de référence. Chaque coefficient représente la différence entre ce niveau et le niveau de référence sur la variable dépendante. Dans l'exemple, si le groupe ethnique de référence est «Blanc» et que le coefficient non normalisé pour «Noir» est de -1,2, cela signifierait que la valeur prédite de la dépression pour les Noirs est inférieure de 1,2 unité à celle des Blancs. Regardez les coefficients standardisés (qui peuvent être étiquetés avec la lettre bêta grecque). Ceux-ci peuvent être interprétés de la même manière que les coefficients non normalisés, seulement ils sont maintenant en termes d'unités d'écart-type de la variable indépendante, plutôt que d'unités brutes. Cela peut aider à comparer les variables indépendantes les unes avec les autres.

    Regardez les niveaux de signification, ou p-values, pour chaque coefficient (ils peuvent être étiquetés "Pr >" ou quelque chose de similaire). Ceux-ci vous indiquent si la variable associée est statistiquement significative. Cela a un sens très particulier qui est souvent déformé. Cela signifie qu'un coefficient aussi élevé ou élevé dans un échantillon de cette taille aurait peu de chances de se produire si le coefficient réel, dans la population entière à partir de laquelle il est tiré, était 0.

    Regardez R au carré. Cela montre quelle proportion de la variation de la variable dépendante est prise en compte par le modèle.

    Interpréter les étapes ultérieures de la régression, du changement et du résultat global

    Répétez les étapes ci-dessus pour chacune plus tard étape de la régression.

    Comparer les coefficients standardisés, les coefficients non normalisés, les niveaux de signification et les r-squareds dans chaque étape à l'étape précédente. Ceux-ci peuvent se trouver dans des sections distinctes de la sortie ou dans des colonnes séparées d'une table. Cette comparaison vous permet de savoir comment les variables de la deuxième étape (ou plus récente) affectent les relations dans la première étape.

    Regardez le modèle entier, y compris toutes les étapes. Regardez les coefficients non normalisés et standardisés et les niveaux de signification pour chaque variable et le carré au carré pour le modèle entier.

    Avertissement

    C'est un sujet très complexe.

    © Science https://fr.scienceaq.com