Using Poisson processes for rare event simulation / Clément Walter ; sous la direction de Josselin Garnier

Date :

Type : Livre / Book

Type : Thèse / Thesis

Langue / Language : anglais / English

Catalogue Worldcat

Monte-Carlo, Méthode de

Fiabilité

Simulation, Méthodes de

Loi de Poisson -- Dissertation universitaire

Garnier, Josselin (1971-....) (Directeur de thèse / thesis advisor)

Boucheron, Stéphane (1962-....) (Président du jury de soutenance / praeses)

Le Gland, François (1955-.... ; chercheur en informatique) (Rapporteur de la thèse / thesis reporter)

Straub, Daniel (19..-....) (Rapporteur de la thèse / thesis reporter)

Moulines, Éric (19..-....) (Membre du jury / opponent)

Guyader, Arnaud (1974-....) (Membre du jury / opponent)

Lelièvre, Tony (1976-....) (Membre du jury / opponent)

Université Sorbonne Paris Cité (Organisme de soutenance / degree-grantor)

École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....) (Ecole doctorale associée à la thèse / doctoral school)

Laboratoire de probabilités et modèles aléatoires (Paris ; 1997-2017) (Equipe de recherche associée à la thèse / thesis associated research team)

Université Paris Diderot - Paris 7 (1970-2019) (Autre partenaire associé à la thèse / thesis associated third party)

Résumé / Abstract : Cette thèse est une contribution à la problématique de la simulation d'événements rares. A partir de l'étude des méthodes de Splitting, un nouveau cadre théorique est développé, indépendant de tout algorithme. Ce cadre, basé sur la définition d'un processus ponctuel associé à toute variable aléatoire réelle, permet de définir des estimateurs de probabilités, quantiles et moments sans aucune hypothèse sur la variable aléatoire. Le caractère artificiel du Splitting (sélection de seuils) disparaît et l'estimateur de la probabilité de dépasser un seuil est en fait un estimateur de la fonction de répartition jusqu'au seuil considéré. De plus, les estimateurs sont basés sur des processus ponctuels indépendants et identiquement distribués et permettent donc l'utilisation de machine de calcul massivement parallèle. Des algorithmes pratiques sont ainsi également proposés.Enfin l'utilisation de métamodèles est parfois nécessaire à cause d'un temps de calcul toujours trop important. Le cas de la modélisation par processus aléatoire est abordé. L'approche par processus ponctuel permet une estimation simplifiée de l'espérance et de la variance conditionnelles de la variable aléaoire résultante et définit un nouveau critère d'enrichissement SUR adapté aux événements rares

Résumé / Abstract : This thesis address the issue of extreme event simulation. From a original understanding of the Splitting methods, a new theoretical framework is proposed, regardless of any algorithm. This framework is based on a point process associated with any real-valued random variable and lets defined probability, quantile and moment estimators without any hypothesis on this random variable. The artificial selection of threshold in Splitting vanishes and the estimator of the probability of exceeding a threshold is indeed an estimator of the whole cumulative distribution function until the given threshold. These estimators are based on the simulation of independent and identically distributed replicas of the point process. So they allow for the use of massively parallel computer cluster. Suitable practical algorithms are thus proposed.Finally it can happen that these advanced statistics still require too much samples. In this context the computer code is considered as a random process with known distribution. The point process framework lets handle this additional source of uncertainty and estimate easily the conditional expectation and variance of the resulting random variable. It also defines new SUR enrichment criteria designed for extreme event probability estimation.