Les économistes ont jusqu'à présent peu utilisé les ordinateurs hautes performances (HPC) dans leurs recherches. Ceci malgré le fait que les interactions complexes et l'hétérogénéité de leurs modèles peuvent rapidement les amener à atteindre des centaines de dimensions, qui ne peuvent pas être calculés à l'aide des méthodes conventionnelles. Autrefois, des modèles simplifiés ont donc souvent été formulés pour répondre à des questions complexes. Ces modèles ont résolu certains problèmes, mais ils pourraient aussi fournir de fausses prédictions, explique Simon Scheidegger, Senior Assistant au Département Banque et Finance de l'Université de Zurich. Par exemple, l'étude quantitative d'une politique monétaire optimale à la suite d'une crise financière ne peut pas être correctement réalisée en utilisant les méthodes conventionnelles. Cependant, calculer des modèles de grande dimension sur un superordinateur n'est pas facile non plus. Jusque récemment, les chercheurs manquaient d'analyse numérique appropriée et de logiciels très efficaces.
La malédiction de la dimensionnalité
Contrairement aux modèles physiques, dans laquelle le temps est considéré comme une quatrième dimension à côté des trois dimensions spatiales, les modèles économiques doivent considérer dix, voire cent fois plus de dimensions. Même un modèle "simple" d'assurance retraite dans un seul pays, qui vise à représenter la prospérité de sa société à chaque année d'âge, montre clairement à quelle vitesse une dimensionnalité supérieure est atteinte :« Si nous supposons que les gens vivront jusqu'à 80 ans en moyenne et gagneront à partir de 20 ans, et veulent déterminer la prospérité pour chaque année d'âge, nous avons déjà 60 dimensions, " explique Scheidegger. De plus, les gens prennent leurs décisions actuelles en tenant compte des incertitudes futures. Idéalement, un modèle devrait tenir compte de toutes ces influences.
Il existe deux principaux points de blocage dans le calcul de modèles économiques aussi complexes. La première est l'approximation récursive des fonctions de grande dimension en utilisant de nombreuses étapes d'itération. À la fois, les systèmes d'équations non linéaires doivent être résolus à des millions de points de grille qui décrivent le modèle. Le calcul d'un tel modèle peut prendre des heures et parfois des jours de temps de calcul, même sur des supercalculateurs hautes performances comme Piz Daint.
Modèle imbriqué
Pour trouver une méthode de résolution très efficace qui peut calculer de manière récursive les règles de prise de décision économique (appelées fonctions de politique), les chercheurs ont combiné des grilles dites clairsemées avec un cadre de réduction de modèle de grande dimension. "La combinaison linéaire résultante de grilles clairsemées, qui décrivent le modèle et donc les fonctions politiques, sont emboîtés comme une poupée russe, et sont alignés de manière à se rapprocher et à décrire de manière optimale l'espace original de grande dimension, " explique Scheidegger. La beauté est que le code pour calculer les grilles individuelles et leur combinaison est hautement parallélisé. Même dans les petits modèles avec "seulement" 50 dimensions, la méthode s'étend efficacement sur Piz Daint jusqu'à 1, 000 nœuds informatiques en même temps. En termes simples, le cadre de décomposition dimensionnelle garantit que seuls les points de grille et les dimensions pertinents qui décrivent le modèle considéré doivent être calculés. Pour minimiser davantage le temps requis pour résoudre les fonctions et maintenir une communication très efficace entre les processeurs et les processus qui s'exécutent sur eux, les chercheurs ont également utilisé un schéma de parallélisation hybride (Message Passing Interface (MPI) et Intel(R) threading building blocks (TBB)).
Scheidegger et ses collègues ont ainsi développé une méthode qui prend en compte de manière significative les hétérogénéités et évite les simplifications excessives. Il fonctionne également de manière générique et peut donc être appliqué à une variété de problèmes - des modèles de finances publiques, comme les pensions de l'État, aux modèles de banque centrale. "Comme c'est le cas en physique ou en chimie assistée par ordinateur, la nouvelle méthode devrait permettre de résoudre fondamentalement des modèles en économie, c'est ab initio, puis confrontés à des données réelles et adaptées si nécessaire, " dit Scheidegger.
D'autres recherches sur ce sujet seront menées dans le cadre d'un projet pour la plate-forme de calcul scientifique avancé (PASC).