High dimensional importance sampling through projections on a low dimensional subspace - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2022

High dimensional importance sampling through projections on a low dimensional subspace

Echantillonnage préférentiel en grande dimension via des projections dans un sous-espace de petite dimension

Résumé

In many scientific fields, an important goal consists in estimating expectations of a function of interest according to a given probability distribution. The function can be considered as a computationally demanding black box function. Importance Sampling (IS) is a well-known method to estimate such integrals with a small simulation budget. It is a stochastic technique which consists in sampling from an auxiliary distribution instead of the initial one. The IS estimator is based on the Monte Carlo estimator with importance weights and converges almost surely to the unknown expectation, according to the law of large numbers. However, its variance, as well as the estimation accuracy, strongly depends on the choice of the auxiliary density. A theoretical optimal IS density, minimising the variance, can be defined but is unknown in practice. Hence, the auxiliary density can be chosen in a parametric family, which allows to easily generate samples, in order to approximate the optimal IS distribution. Adaptive Importance Sampling (AIS) algorithms have been developed to find optimal parameters allowing to approach the theoretical target density, by estimating parameters iteratively. However, when the dimension of the parameters space is growing, the parameters estimation is degrading and AIS algorithms, and IS more generally, become inefficient. Then the final expectation estimation becomes inaccurate, because of the accumulation of the parameters estimation errors. Thus, the main goal of the thesis is the improvement of the accuracy of high dimensional IS, using projections in low dimensional subspaces to reduce the number of estimated parameters. We focus specifically on finding influential projection directions for the estimation of the covariance matrix in the Gaussian case (updating the mean vector and the covariance). The first suggested idea is the projection on the one-dimensional subspace spanned by the optimal mean vector. This direction is relevant in particular in the context of rare event probability estimation, because the variance decreases in this direction. The second projection is the optimal projection found by minimising the Kullback-Leibler divergence with the target density. This proposition allows to project in more than one direction contrary to the first technique, and identifies the most influential directions. We test the efficiency of both projections on various examples of expectation estimation, at first in a theoretical context and without adaptive algorithms. Numerical simulations show the significant improvement of the IS estimation accuracy with the two projection techniques and on all examples. We then implement an improvement of the Cross Entropy method (CE), an AIS algorithm for rare event probability estimation, using both projection methods. We check the efficiency of the proposed algorithms on some examples of rare event estimation with a small simulation budget. The projection on the optimal directions give accurate estimations in moderate dimensions (less than 100). The projection on the mean is still efficient in higher dimensions (a few hundreds) in most examples. In all cases, the numerical results show that our proposed algorithms outperform the classical CE by increasing the accuracy with the same budget.
De nombreuses disciplines scientifiques s'intéressent à l'estimation d'espérances d'une fonction d'intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d'appels à la boite noire, est la méthode d'échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. Pour annuler la variance de l’estimateur d’IS, il existe une densité optimale théorique, mais celle-ci est inutilisable en pratique. En revanche, des algorithmes adaptatifs (Adaptive Importance Sampling, AIS) ont été développés pour approcher cette densité théorique par des densités paramétriques, en mettant à jour des paramètres de manière itérative. Mais lorsque la dimension de l'espace des paramètres augmente, l'estimation des paramètres se dégrade et les algorithmes d'AIS, et l'IS en général, deviennent inefficaces. L'estimation finale de l'espérance devient alors très imprécise, notamment du fait de l'accumulation des erreurs commises dans l'estimation de chaque paramètre. L'objectif principal de cette thèse est ainsi d'améliorer la précision de l'IS en grande dimension, en réduisant le nombre de paramètres estimés à l'aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l'estimation de la matrice de covariance dans un cadre gaussien unimodal (où l'on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d'estimation d'une probabilité d'événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d'identifier les directions les plus influentes. Dans un premier temps, l'efficacité de ces projections est testée sur différents exemples d'estimation d'espérances en grande dimension, dans un cadre théorique n'impliquant pas d'algorithmes adaptatifs. Ensuite, nous proposons un couplage de ces projections avec l'algorithme d'Entropie Croisée (Cross Entropy, CE), un algorithme d'AIS destiné à l'estimation de probabilités d'événements rares. L'efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget.
Fichier principal
Vignette du fichier
DTIS22111.1648111910.pdf (1.68 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

tel-03927607 , version 1 (06-01-2023)

Identifiants

  • HAL Id : tel-03927607 , version 1

Citer

Maxime El Masri. High dimensional importance sampling through projections on a low dimensional subspace. Engineering Sciences [physics]. ISAE - Institut Supérieur de l'Aéronautique et de l'Espace, 2022. English. ⟨NNT : ⟩. ⟨tel-03927607⟩
78 Consultations
37 Téléchargements

Partager

Gmail Facebook X LinkedIn More