Neural-Symbolic Learning for Semantic Parsing / Chunyang Xiao ; sous la direction de Claire Gardent et de Marc Dymetman

Date :

Type : Livre / Book

Type : Thèse / Thesis

Langue / Language : anglais / English

Catalogue Worldcat

Traitement automatique du langage naturel

Analyse automatique (linguistique)

Réseaux neuronaux (informatique)

Analyse des données symboliques

Classification Dewey : 006.35

Gardent, Claire (Directeur de thèse / thesis advisor)

Dymetman, Marc (Directeur de thèse / thesis advisor)

Couceiro, Miguel (Président du jury de soutenance / praeses)

Steedman, Mark (Rapporteur de la thèse / thesis reporter)

Franck, Anette (Rapporteur de la thèse / thesis reporter)

Berant, Jonathan (Membre du jury / opponent)

Université de Lorraine (Organisme de soutenance / degree-grantor)

École doctorale IAEM Lorraine - Informatique, Automatique, Électronique - Électrotechnique, Mathématiques de Lorraine (Ecole doctorale associée à la thèse / doctoral school)

Laboratoire lorrain de recherche en informatique et ses applications (Laboratoire associé à la thèse / thesis associated laboratory)

Résumé / Abstract : Notre but dans cette thèse est de construire un système qui réponde à une question en langue naturelle (NL) en représentant sa sémantique comme une forme logique (LF) et ensuite en calculant une réponse en exécutant cette LF sur une base de connaissances. La partie centrale d'un tel système est l'analyseur sémantique qui transforme les questions en formes logiques. Notre objectif est de construire des analyseurs sémantiques performants en apprenant à partir de paires (NL, LF). Nous proposons de combiner des réseaux neuronaux récurrents (RNN) avec des connaissances préalables symboliques exprimées à travers des grammaires hors-contexte (CFGs) et des automates. En intégrant des CFGs contrôlant la validité des LFs dans les processus d'apprentissage et d'inférence des RNNs, nous garantissons que les formes logiques générées sont bien formées; en intégrant, par le biais d'automates pondérés, des connaissances préalables sur la présence de certaines entités dans la LF, nous améliorons encore la performance de nos modèles. Expérimentalement, nous montrons que notre approche permet d'obtenir de meilleures performances que les analyseurs sémantiques qui n'utilisent pas de réseaux neuronaux, ainsi que les analyseurs à base de RNNs qui ne sont pas informés par de telles connaissances préalables

Résumé / Abstract : Our goal in this thesis is to build a system that answers a natural language question (NL) by representing its semantics as a logical form (LF) and then computing the answer by executing the LF over a knowledge base. The core part of such a system is the semantic parser that maps questions to logical forms. Our focus is how to build high-performance semantic parsers by learning from (NL, LF) pairs. We propose to combine recurrent neural networks (RNNs) with symbolic prior knowledge expressed through context-free grammars (CFGs) and automata. By integrating CFGs over LFs into the RNN training and inference processes, we guarantee that the generated logical forms are well-formed; by integrating, through weighted automata, prior knowledge over the presence of certain entities in the LF, we further enhance the performance of our models. Experimentally, we show that our approach achieves better performance than previous semantic parsers not using neural networks as well as RNNs not informed by such prior knowledge