Crédit :CC0 Domaine public
"La prédiction est très difficile, surtout s'il s'agit du futur, " a dit un jour le prix Nobel Niels Bohr.
La chercheuse d'Argonne Julie Bessac et son collègue français Philippe Naveau sont d'accord - et ils ont entrepris une étude pour peut-être atténuer la difficulté de l'évaluation des prévisions météorologiques. Leur papier, intitulé "Evaluation des prévisions avec des observations imparfaites et des modèles imparfaits, " se concentre sur de nouvelles mesures d'évaluation de la qualité, règles de notation, pour tenir compte des erreurs dans les observations et les prévisions.
Les systèmes de notation classiques impliquent généralement de comparer différentes prévisions avec des observations. Mais de telles observations comportent presque toujours des erreurs - en raison, par exemple, aux problèmes d'enregistrement des données ou aux déficiences des instruments. En effet, une étude récente a montré que le score logarithmique classique utilisé par de tels schémas est trompeur dans la sélection de la meilleure prévision lorsque des erreurs d'observation sont présentes, et que la distribution probabiliste des données de vérification devrait dépendre de la modélisation de processus physiques sous-jacents qui ne sont pas observés.
Sur la base des résultats de cette étude, Bessac et Naveau ont proposé un nouveau modèle de notation qui couple prévisions et distributions d'observations pour corriger un score lorsque des erreurs sont présentes dans les données de vérification et dans la prévision. Ils ont également souligné la nécessité d'étudier des statistiques plus poussées que le score moyen couramment utilisé dans la pratique.
L'équipe a comparé/formulé sa nouvelle approche avec deux modèles populaires. Le premier modèle permet de comprendre le rôle et l'impact des erreurs d'observation par rapport à l'état réel non observé de l'atmosphère X, mais il n'intègre pas l'idée d'erreur de prévision. Dans le deuxième modèle, les observations Y et les prévisions Z sont modélisées comme des versions avec des erreurs de l'état de l'atmosphère X, ce qui n'est pas encore observé.
"La distinction entre la vérité non observée (processus cachés) et les données de vérification observées (mais incorrectes) est fondamentale pour comprendre l'impact des observations imparfaites sur la modélisation des prévisions, " dit Bessac, en tant qu'assistant statisticien informaticien à la Division Mathématiques et Informatique d'Argonne.
Le nouveau modèle offre plusieurs avantages :(1) il propose un cadre simple pour tenir compte des erreurs dans les données de vérification et dans les prévisions; (2) il souligne l'importance d'explorer la distribution des scores au lieu de se concentrer uniquement sur la moyenne; et (3) cela montre l'importance de tenir compte des erreurs dans les données de vérification qui peuvent être potentiellement trompeuses.
Le modèle a été testé sur deux cas où les paramètres des distributions impliquées sont supposés connus. Alors qu'il s'agissait de cas idéalisés, les chercheurs ont souligné que les résultats des tests soulignent l'importance d'étudier la distribution des scores lorsque les données de vérification sont considérées comme une variable aléatoire.