Perception intelligente pour la navigation rapide de robots mobiles en environnement naturel / Florent Malartre ; sous la direction de Roland Chapuis

Date :

Type : Livre / Book

Type : Thèse / Thesis

Langue / Language : français / French

Robots mobiles -- Commande automatique

Capteurs (technologie)

Chapuis, Roland (Directeur de thèse / thesis advisor)

Derutin, Jean-Pierre (Président du jury de soutenance / praeses)

Lacroix, Simon (19..-....) (Rapporteur de la thèse / thesis reporter)

Berns, Karsten (Rapporteur de la thèse / thesis reporter)

Debain, Christophe (Membre du jury / opponent)

Université Blaise Pascal (Clermont-Ferrand ; 1976-2016) (Organisme de soutenance / degree-grantor)

École doctorale des sciences pour l'ingénieur (Clermont-Ferrand) (Ecole doctorale associée à la thèse / doctoral school)

LAboratoire des Sciences et Matériaux pour l’Electronique, et d’Automatique (Equipe de recherche associée à la thèse / thesis associated research team)

Résumé / Abstract : Cette thèse concerne la perception de l’environnement pour le guidage automatique d’un robot mobile. Lorsque l’on souhaite réaliser un système de navigation autonome, plusieurs éléments doivent être abordés. Parmi ceux-ci nous traiterons de la franchissabilité de l’environnement sur la trajectoire du véhicule. Cette franchissabilité dépend notamment de la géométrie et du type de sol mais également de la position du robot par rapport à son environnement (dans un repère local) ainsi que l’objectif qu’il doit atteindre (dans un repère global). Les travaux de cette thèse traitent donc de la perception de l’environnement d’un robot au sens large du terme en adressant la cartographie de l’environnement et la localisation du véhicule. Pour cela un système de fusion de données est proposé afin d’estimer ces informations. Ce système de fusion est alimenté par plusieurs capteurs dont une caméra, un télémètre laser et un GPS. L’originalité de ces travaux porte sur la façon de combiner ces informations capteurs. A la base du processus de fusion, nous utilisons un algorithme d’odométrie visuelle basé sur les images de la caméra. Pour accroitre la précision et la robustesse l’initialisation de la position des points sélectionnés se fait grâce à un télémètre laser qui fournit les informations de profondeur. De plus, le positionnement dans un repère global est effectué en combinant cette odométrie visuelle avec les informations GPS. Pour cela un procédé a été mis en place pour assurer l’intégrité de localisation du véhicule avant de fusionner sa position avec les données GPS. La cartographie de l’environnement est toute aussi importante puisqu’elle va permettre de calculer le chemin qui assurera au véhicule une évolution sans risque de collision ou de renversement. Dans cette optique, le télémètre laser déjà présent dans le processus de localisation est utilisé pour compléter la liste courante de points 3D qui matérialisent le terrain à l’avant du véhicule. En combinant la localisation précise du véhicule avec les informations denses du télémètre il est possible d’obtenir une cartographie précise, dense et géo-localisée de l’environnement. Tout ces travaux ont été expérimentés sur un simulateur robotique développé pour l’occasion puis sur un véhicule tout-terrain réel évoluant dans un monde naturel. Les résultats de cette approche ont montré la pertinence de ces travaux pour le guidage autonome de robots mobiles.

Résumé / Abstract : This thesis addresses the perception of the environment for the automatic guidance of a mobile robot. When one wishes to achieve autonomous navigation, several elements must be addressed. Among them we will discuss the traversability of the environment on the vehicle path. This traversability depends on the ground geometry and type and also the position of the robot in its environment (in a local coordinate system) taking into acount the objective that must be achieved (in a global coordinate system).The works of this thesis deal with the environment perception of a robot inthe broad sense by addressing the mapping of the environment and the location of the vehicle. To do this, a data fusion system is proposed to estimate these informations. The fusion system is supplied by several low cost sensors including a camera, a rangefinder and a GPS receiver. The originality of this work focuses on how to combine these sensors informations. The base of the fusion process is a visual odometry algorithm based on camera images. To increase the accuracy and the robustness, the initialization of the selected points position is done with a rangefinder that provides the depth information.In addition, the localization in a global reference is made by combining the visual odometry with GPS information. For this, a process has been established to ensure the integrity of localization of the vehicle before merging its position with the GPS data. The mapping of the environment is also important as it will allow to compute the path that will ensure an evolution of the vehicle without risk of collision or overturn. From this perspective, the rangefinder already present in the localization process is used to complete the current list of 3D points that represent the field infront of the vehicle. By combining an accurate localization of the vehicle with informations of the rangefinder it is possible to obtain an accurate, dense and geo-located map environment. All these works have been tested on a robotic simulator developed for this purpose and on a real all-terrain vehicle moving in a natural world. The results of this approach have shown the relevance of this work for autonomous guidance of mobile robots.