Génération aléatoire d'automates et analyse d'algorithmes de minimisation / Julien David ; sous la direction de Frédérique Bassino

Date :

Type : Livre / Book

Type : Thèse / Thesis

Langue / Language : français / French

Automates

Complexité de calcul (informatique)

Moore, Loi de

Informatique quantique

Classification Dewey : 004

Bassino, Frédérique (19..-....) (Directeur de thèse / thesis advisor)

Duchon, Philippe (1969-....) (Rapporteur de la thèse / thesis reporter)

Berstel, Jean (1941-....) (Membre du jury / opponent)

Champarnaud, Jean-Marc (19..-.... ; auteur en informatique) (Membre du jury / opponent)

Denise, Alain (Membre du jury / opponent)

Nicaud, Cyril (19..-....) (Membre du jury / opponent)

Soria, Michèle (19..-....) (Membre du jury / opponent)

Université Paris-Est (2007-2015) (Organisme de soutenance / degree-grantor)

École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication (Champs-sur-Marne, Seine-et-Marne ; 2010-2015) (Ecole doctorale associée à la thèse / doctoral school)

Laboratoire d'informatique de l'Institut Gaspard Monge (1997-2009) (Laboratoire associé à la thèse / thesis associated laboratory)

Résumé / Abstract : Cette thèse porte sur la génération aléatoire uniforme des automates finis et l'analyse des algorithmes de minimisation qui s'y appliquent. La génération aléatoire permet de conduire une étude expérimentale sur les propriétésde l'objet engendré et sur les méthodes algorithmiques qui s'y appliquent. Il s'agit également d'un outil de recherche, qui permet de faciliter l'étude théorique du comportement moyen des algorithmes. L'analyse en moyenne des algorithmes s'inscrit dans la suite des travaux précurseurs de Donald Knuth. Le schéma classique en analyse d'algorithmes consiste à étudier le pire des cas, qui n'est souvent pas représentatif du comportement de l'algorithme en pratique. D'un point de vue théorique, on définit ce qui se produit "souvent'' en fixant une loi de probabilitésur les entrées de l'algorithme. L'analyse en moyenne consiste alors à estimer des ressources utiliséespour cette distribution de probabilité. Dans ce cadre, j'ai travaillé sur des algorithmes de génération aléatoire d'automatesdéterministes accessibles (complets ou non). Ces algorithmes sont basés sur de la combinatoirebijective, qui permet d'utiliser un procédé générique : les générateurs de Boltzmann. J'ai ensuite implanté ces méthodes dans deux logiciels : REGAL et PREGA. Je me suis intéressé à l'analyse en moyenne des algorithmes de minimisation d'automateset j'ai obtenu des résultats qui montrent le cas moyen des algorithmes de Moore et Hopcroft est bien meilleur que le pire des cas

Résumé / Abstract : This thesis is about the uniform random generation of finite automata and the analysisof their state minimization algorithms. Random generators allow to conduct an experimental study on the properties of the generated objectand on the algorithms that apply to this object. It is also a useful tool for research that facilitates the theoretical study of the average behavior of algorithms. Usually, the analysis of an algorithm focuses on the worst case scenario, which is often not representative of thepractical behavior of the algorithm. From a theoretical point of view, one can define what happens "often" by fixing a probability law on the algorithm's inputs. The average analysis consists in the estimation ofthe requested resources, according to this probability distribution.In this context, I worked on several algorithms for the random generation of deterministic accessibleautomata (complete or not).Those algorithms are based on bijective combinatorics, that allows to use generic tools called the Boltzmann generators. I implemented those methods in two softwares : REGAL and PREGA. I studied the average complexity of state minimization algorithms and obtained results showing that theaverage case of the two algorithms due to Moore and Hopcroft is way better than the worst case