Les problèmes d'optimisation globale dans lesquels l'évaluation de la fonction objectif est une opération coûteuse surviennent fréquemment en ingénierie, apprentissage automatique, la prise de décision, statistiques, contrôle optimal, etc. Un problème général d'optimisation globale nécessite de trouver un point x* et la valeur f(x*) étant la valeur globale (c'est-à-dire, le minimum le plus profond) d'une fonction f(x) sur un domaine D à N dimensions, où f(x) peut être indifférenciable, multiextrémale, difficile à évaluer même à un moment donné (les évaluations de f(x) sont chères), et donné comme une "boîte noire". Par conséquent, les méthodes d'optimisation locales traditionnelles ne peuvent pas être utilisées dans cette situation.
Parmi les méthodes d'optimisation globales sans dérivées existantes, deux classes d'algorithmes peuvent être distinguées :les algorithmes métaheuristiques stochastiques et les méthodes de programmation mathématique déterministe. L'ancien, en raison de leur simplicité et de leurs interprétations attrayantes inspirées de la nature (algorithmes génétiques, optimisation de l'essaim de particules, algorithmes de luciole, etc.), sont utilisés par une large communauté d'ingénieurs et de praticiens pour résoudre des problèmes de la vie réelle alors que ces derniers sont activement étudiés dans le milieu universitaire en raison de leurs propriétés théoriques intéressantes, y compris une convergence garantie. Historiquement, ces deux communautés sont presque totalement disjointes :elles ont des revues différentes, différentes conférences, et différentes fonctions de test. En raison de la dureté des problèmes d'optimisation globale et de la nature différente des méthodes de ces deux groupes, le problème de leur comparaison est très difficile et les méthodes sont rassemblées sur quelques dizaines de fonctions de test donnant des informations médiocres et des résultats peu fiables.
Afin de combler le fossé entre les deux communautés, chercheurs de l'Université Lobatchevsky (Russie) et de l'Université de Calabre (Italie) Ya.D. Sergueïev, D.E. Kvasov et M.S. Mukhametzhanov a proposé dans son article récent deux nouvelles techniques visuelles efficaces (appelées zones opérationnelles et zones opérationnelles agrégées) pour une comparaison systématique d'algorithmes d'optimisation globale de nature différente. Plus de 800, 000 exécutions sur 800 problèmes de test multidimensionnels générés aléatoirement ont été effectuées pour comparer cinq métaheuristiques stochastiques populaires et trois méthodes déterministes donnant ainsi un nouveau niveau de compréhension des algorithmes testés. Les problèmes de test ont été choisis parce que, après avoir été générés aléatoirement, l'optimiseur est fourni avec les emplacements du minimum global et de tous les minimiseurs locaux (cette propriété a rendu le générateur de ces problèmes de test très populaire - il est utilisé de nos jours dans plus de 40 pays du monde). La connaissance de la solution globale permet de vérifier si la méthode testée a trouvé l'optimum global. Étant donné que dans les problèmes pratiques, la solution globale est inconnue et, donc, il n'est pas possible de vérifier la qualité de la solution obtenue, il est très important de voir comment différentes méthodes sont proches de la solution globale après que leur règle d'arrêt a été satisfaite.
Les recherches effectuées dans l'article montrent que les zones opérationnelles et agrégées proposées permettent de comparer efficacement des algorithmes d'optimisation globale déterministes et stochastiques de nature différente et donnent une représentation visuelle pratique de cette comparaison pour différents budgets de calcul. Les larges expériences numériques donnent une nouvelle compréhension des deux classes de méthodes et ouvrent un dialogue entre les deux communautés. On constate que les deux classes d'algorithmes sont compétitives et peuvent se surpasser en fonction du budget disponible des évaluations de fonctions.
L'étude est publiée dans Rapports scientifiques .