La ligne de régression des moindres carrés (LSRL) est une ligne qui sert de fonction de prédiction pour un phénomène qui n'est pas bien connu. La définition de la statistique mathématique d'une ligne de régression par les moindres carrés est la ligne qui passe par le point (0,0) et a une pente égale au coefficient de corrélation des données, après que les données ont été normalisées. Ainsi, calculer la ligne de régression des moindres carrés implique de standardiser les données et de trouver le coefficient de corrélation.
Trouver le Coefficient de corrélation
Disposez vos données de façon à ce qu'elles soient faciles à utiliser. Utilisez une feuille de calcul ou une matrice pour séparer vos données en valeurs x et valeurs y, en les gardant liées (assurez-vous que la valeur x et la valeur y de chaque point de données se trouvent dans la même ligne ou colonne). > Trouver les produits croisés des valeurs x et y. Multipliez la valeur x et la valeur y pour chaque point ensemble. Somme ces valeurs résultantes. Appelez le résultat "sxy".
Somme les valeurs x et les valeurs y séparément. Appelez respectivement les deux valeurs résultantes "sx" et "sy".
Comptez le nombre de points de données. Appelez cette valeur "n".
Prenez la somme des carrés pour vos données. Place toutes tes valeurs. Multipliez chaque valeur x et chaque valeur y par lui-même. Appelez les nouveaux ensembles de données "x2" et "y2" pour les valeurs x et les valeurs y. Additionnez toutes les valeurs x2 et appelez le résultat "sx2". Sommez toutes les valeurs y2 et appelez le résultat "sy2".
Soustrayez sx * sy /n de sxy. Appelle le résultat "num."
Calcule la valeur sx2- (sx ^ 2) /n. Appelez le résultat "A".
Calculez la valeur sy2- (sy ^ 2) /n. Appelez le résultat "B".
Prenez la racine carrée de A fois B, qui peut être représentée par (A * B) ^ (1/2). Étiquetez le résultat "denom".
Calculez le coefficient de corrélation, "r". La valeur de "r" est égale à "num" divisé par "denom", qui peut s'écrire num /denom.
Standardiser les données et écrire le LSRL
Trouver les moyennes des valeurs x et y. Ajoutez toutes les valeurs x ensemble et divisez le résultat par «n». Appelez ce «mx». Faites de même pour les valeurs y, appelez le résultat «my».
Trouvez les écarts-types pour les valeurs x et les valeurs y. Créez de nouveaux ensembles de données pour les x et les y en soustrayant la moyenne de chaque ensemble de données de ses données associées. Par exemple, chaque point de données pour x, "xdat" deviendra "xdat - mx". Place les points de données résultants. Ajouter les résultats pour chaque groupe (x et y) séparément, en divisant par "n" pour chaque groupe. Prenez la racine carrée de ces deux résultats finaux pour obtenir l'écart-type pour chaque groupe. Appelez l'écart type pour les valeurs x "sdx" et celui pour les valeurs y "sdy."
Standardisez les données. Soustrayez la moyenne pour les valeurs x de chaque valeur x. Divisez les résultats par "sdx". Les données restantes sont normalisées. Appelez ces données "x_". Faites la même chose pour les valeurs y: soustrayez "my" de chaque valeur y, en divisant par "sdy" au fur et à mesure. Appelez ces données "y_".
Écrivez la ligne de régression. Ecrire "y_ ^ = rx_", où "^" est représentatif de "hat" - une valeur prédite - et "r" est égal au coefficient de corrélation trouvé plus tôt.