• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Les mathématiciens développent un nouvel indicateur statistique

    Crédit :CC0 Domaine public

    La plupart d'entre nous ne connaissent que trop bien ce phénomène :quand il fait chaud dehors, vous ressentez l'envie d'une glace rafraîchissante. Mais auriez-vous pensé que les mathématiques pouvaient être impliquées ?

    Expliquons-nous :La hausse des températures et la hausse de la consommation de glace sont deux variables statistiques en dépendance linéaire; ils sont corrélés.

    En statistiques, les corrélations sont importantes pour prédire le comportement futur des variables. De telles prévisions scientifiques sont fréquemment demandées par les médias, que ce soit pour le football ou les résultats des élections.

    Pour mesurer la dépendance linéaire, les scientifiques utilisent le soi-disant coefficient de corrélation, qui a été introduit pour la première fois par le naturaliste britannique Sir Francis Galton (1822-1911) dans les années 1870. Peu de temps après, le mathématicien Karl Pearson a fourni une justification mathématique formelle pour le coefficient de corrélation. Par conséquent, les mathématiciens parlent aussi de la « corrélation produit-moment de Pearson » ou de la « corrélation de Pearson ».

    Si, cependant, la dépendance entre les variables est non linéaire, le coefficient de corrélation n'est plus une mesure appropriée de leur dépendance.

    René Schilling, Professeur de probabilités à la TU Dresden, souligne "Jusqu'à présent, il a fallu beaucoup d'efforts de calcul pour détecter les dépendances entre plus de deux variables de grande dimension, en particulier lorsque des relations non linéaires complexes sont impliquées. Nous avons maintenant trouvé une solution efficace et pratique à ce problème."

    Dr Björn Böttcher, Le professeur Martin Keller-Ressel et le professeur René Schilling de l'Institut de stochastique mathématique de la TU Dresden ont développé une mesure de dépendance appelée "multivariance de distance". La définition de cette nouvelle mesure et la théorie mathématique sous-jacente ont été publiées dans la principale revue internationale Annales de statistiques sous le titre "Distance Multivariance :Nouveau
    Mesures de dépendance pour les vecteurs aléatoires."

    Martin Keller-Ressel explique :« Pour calculer la mesure de dépendance, non seulement les valeurs des variables observées elles-mêmes, mais aussi leurs distances mutuelles sont enregistrées et à partir de ces matrices de distances, la multivariance de distance est calculée. Cette étape intermédiaire permet la détection de dépendances complexes, que le coefficient de corrélation habituel ignorerait tout simplement. Notre méthode peut être appliquée à des questions en bioinformatique, où les grands ensembles de données doivent être analysés."

    Dans une étude de suivi, il a été montré que le coefficient de corrélation classique et d'autres mesures de dépendance connues peuvent être récupérés comme cas limites à partir de la multivariance de distance.

    Björn Böttcher conclut en précisant :« Nous fournissons toutes les fonctions nécessaires dans le package 'multivariance' pour le logiciel de statistiques gratuit R, afin que toutes les parties intéressées puissent tester l'application de la nouvelle mesure de dépendance."


    © Science https://fr.scienceaq.com