Date : 2011
Editeur / Publisher : Toulouse : Université Paul Sabatier, Toulouse 3 , 2011
Type : Livre / Book
Type : Thèse / ThesisLangue / Language : français / French
Systèmes adaptatifs (technologie)
Homme -- Attitude et mouvement
Reconnaissance automatique de la parole
Accès en ligne / online access
Résumé / Abstract : Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasitemps réel sur ces plateformes robotiques réelles.
Résumé / Abstract : In the framework of assistance robotics, this PHD aims at merging two channels of information (visual and aiditive potentially avaible on a robot. The goal is ton complete and/ or conf rm data that an only channel could have supplied in order to perform advanced intatraction which goal is to interpret jointly speech gesture, in particular for the use of spatial references. In this thesis, we first de cribe the speech part of this work which consists in an embedded recognition and interpretation system for continuous speech. Then comes the vision part which is composed of a visual multi-target tracker that tracks, in 3D the head and the two hands of a human in front of the robot, and a second tracker for the head orientation. The outputs of these trackers are used to feed the gesture recognitive system described later. We continue with the description of a module dedicated to the fusion of the data outputs of these information sources in a probailistic framework. Last, we demonstrate the interest and feasibility of such a multimodal interface through some demonstrations on the LAAS-CNRS robots. All the modules described in this thesis are working in quasi-real time on these real robotic platforms.