Sur l'estimation de densités prédictives et l'estimation d'un coût / Ali Righi ; sous la direction de Dominique Fourdrinier

Date :

Editeur / Publisher : [S.l.] : [s.n.] , 2011

Type : Livre / Book

Type : Thèse / Thesis

Langue / Language : français / French

Estimation, Théorie de l'

Estimation ponctuelle

Statistique bayésienne

Statistique mathématique

Analyse multivariée

Fourdrinier, Dominique (1951-....) (Directeur de thèse / thesis advisor)

Université de Rouen Normandie (1966-....) (Organisme de soutenance / degree-grantor)

Laboratoire de mathématiques Raphaël Salem (Saint-Etienne-du-Rouvray, Seine-Maritime ; 2000-...) (Laboratoire associé à la thèse / thesis associated laboratory)

École doctorale sciences physiques mathématiques et de l'information pour l'ingénieur (Saint-Etienne-du-Rouvray, Seine-Maritime ; ....-2016) (Ecole doctorale associée à la thèse / doctoral school)

Résumé / Abstract : Cette thèse est composée de deux parties. Dans la première partie, nous étudions l’estimation des densités prédictives, sous le coût de Kullback-Leibler, pour le modèle gaussien multidimensionnel de dimension p. Nous nous focalisons sur le lien qui existe entre ce problème d’estimation et l’estimation de la moyenne correspondante sous coût quadratique. Nous exhibons plusieurs résultats parallèles. Nous prouvons des résultats de minimaxité et d’amélioration des estimateurs sous contrainte pour la moyenne inconnue. Notamment, nous établissons, au travers deux méthodes, que la densité prédictive bayésienne associée à la loi a priori uniforme sur un convexe C domine la meilleure densité invariante sous la contrainte μ 2 C. Ceci constitue un résultat parallèle à celui de Hartigan en 2004 pour l’estimation de la moyenne sous coût quadratique. A la fin de cette partie, nous donnons des simulations numériques pour visualiser les gains réalisés par quelques nouveaux estimateurs proposés. Dans la seconde partie, pour le modèle gaussien de dimension p, nous traitons le problème de l’estimation du coût quadratique de l’estimateur standard de la moyenne (soit #0(X) = X). Nous proposons des estimateurs de coût bayésiens généralisés qui dominent l’estimateur standard du coût (soit #0(X) = p), en donnant des conditions suffisantes sur la loi a priori afin d’obtenir cette domination pour p # 5. Nous illustrons nos résultats par des exemples. Ensuite nous réalisons une étude technique et des simulations numériques du gain obtenu par un de nos estimateurs bayésiens généralisés proposés.

Résumé / Abstract : This thesis is divided in two parts. In the first part, we investigate predictive density estimation for a multivariate Gaussian model under the Kullback-Leibler loss. We focus on the link with the problem of estimation of the mean under quadratic loss. We obtain several parallel results. We prove minimaxity and improved estimation results under restriction for the unknown mean. In particular, we show, via two different paths, that the Bayesian predictive density associated to the uniform prior on a convex C dominates the best invariant predictive density when μ 2 C. This is a parallel result to Hartigan’s result in 2004, for the estimation of the mean under quadratic loss. At the end of this part, we give numerical simulations to visualize the gain obtained by some of our new proposed estimators. In the second part, for the Gaussian model of dimension p, we treat the problem of estimating the loss of the standard estimator of the mean (that is, #0(X) = X). We give generalized Bayes estimators which dominate the unbiased estimator of loss (that is, #0(X) = p), through sufficient conditions for p # 5. Examples illustrate the theory. Then we carry on a technical study and numerical simulations on the gain reached by one of our proposed minimax generalized Bayes estimators of loss.