[ Skip to the content ]

Institute of Formal and Applied Linguistics

at Faculty of Mathematics and Physics, Charles University, Prague, Czech Republic


[ Back to the navigation ]

Publication


Year 2016
Type in proceedings
Status published
Language English
Author(s) Dušek, Ondřej Jurčíček, Filip
Title Sequence-to-Sequence Generation for Spoken Dialogue via Deep Syntax Trees and Strings
Czech title Generování hloubkově syntaktických stromů a řetězců pro dialogové systémy s použitím metody sequence-to-sequence
Proceedings 2016: Stroudsburg, PA, USA: ACL 2016: Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers)
Pages range 45-51
How published online
URL http://www.aclweb.org/anthology/P/P16/P16-2008.pdf
Supported by 2014-2016 GAUK 20582/2014 (Adaptivní generátor přirozeného jazyka) 2012-2016 LK11221 (Vývoj metod pro návrh statistických mluvených dialogových systémů) 2016 SVV 260 333 (Teoretické základy informatiky a výpočetní lingvistiky) 2016-2019 LM2015071 (LINDAT-CLARIN: Institut pro analýzu, zpracování a distribuci lingvistických dat) 2012-2016 PRVOUK P46 (Informatika)
Czech abstract Prezentujeme generátor přirozeného jazyka založený na metodě sequence-to-sequence, který lze natrénovat tak, aby z dialogových aktů produkoval buď věty v přirozeném jazyce, nebo hloubkově syntaktické závislostní stromy. Na generátoru potom přímo porovnáváme dvoufázové generování, které používá oddělené větné plánování a povrchovou realizaci, s jednofázovým přístupem.
Obě nastavení generátoru jsme byli schopni natrénovat s použitím velmi malého množství trénovacích dat. Jednofázové generování dosahuje lepších výsledků; překonává nejlepší předchozí výsledek podle n-gramových automatických metrik a zároveň nabízí relevantnější výstupy.
English abstract We present a natural language generator based on the sequence-to-sequence approach that can be trained to produce natural language strings as well as deep syntax dependency trees from input dialogue acts, and we use it to directly compare two-step generation with separate sentence planning and surface realization stages to a joint, one-step approach.
We were able to train both setups successfully using very little training data. The joint setup offers better performance, surpassing state-of-the-art with regards to n-gram-based scores while providing more relevant outputs.
Specialization linguistics ("jazykověda")
Confidentiality default – not confidential
Open access no
ISBN* 978-1-945626-01-2
Address* Stroudsburg, PA, USA
Month* August
Venue* Humboldt University
Publisher* Association for Computational Linguistics
Institution* Association for Computational Linguistics
Organization* Association for Computational Linguistics
Creator: Common Account
Created: 6/1/16 11:53 AM
Modifier: Almighty Admin
Modified: 2/25/17 10:06 PM
***

Content, Design & Functionality: ÚFAL, 2006–2016. Page generated: Sat Sep 23 22:02:43 CEST 2017

[ Back to the navigation ] [ Back to the content ]

100% OpenAIRE compliant