[ Skip to the content ]

Institute of Formal and Applied Linguistics

at Faculty of Mathematics and Physics, Charles University, Prague, Czech Republic


[ Back to the navigation ]

Publication


Year 2017
Type in proceedings
Status published
Language English
Author(s) Bojar, Ondřej Helcl, Jindřich Kocmi, Tom Libovický, Jindřich Musil, Tomáš
Title Results of the WMT17 Neural MT Training Task
Czech title Výsledky úlohy WMT17 pro trénink systémů pro strojový překlad
Proceedings 2017: Stroudsburg, PA, USA: WMT 2017: Proceedings of the Second Conference on Machine Translation, Volume 2: Shared Task Papers
Pages range 525-533
How published online
Supported by 2017 SVV 260 453 (Teoretické základy informatiky a výpočetní lingvistiky) 2016-2018 GAUK 8502/2016 (Využití umělých neuronových sítí pro počítačový překlad) 2015-2018 H2020-ICT-2014-1-645452 (QT21: Quality Translation 21) 2017-2021 PROGRES Q18 (Společenské vědy: od víceoborovosti k mezioborovosti) 2016-2019 LM2015071 (LINDAT-CLARIN: Institut pro analýzu, zpracování a distribuci lingvistických dat) 2017-2021 PROGRES Q48 (Informatika)
Czech abstract Tento článek představuje výsledky úlohy WMT17 pro trénink neuronového strojového překladu.
Cílem této úlohy je prozkoumat metody výcviku předem zvolené neuronové architektury, zaměřené především na nejlepší kvalitu překladu a jako sekundární cíl kratší čas trénování.
Účastníci měli k dispozici kompletní systém pro neuronový strojový překlad, výchozí parametry trénování a konfiguraci sítě.
Překlad byl proveden v anglicko-českém směru a úkol byl rozdělen na dvě podskupiny s různými konfiguracemi - jedna byla upravena tak, aby se vešla na 4GB a druhá na 8GB GPU kartu.
Obdrželi jsme 3 řešení pro variantu 4 GB a 1 řešení pro variantu 8 GB; také jsme poskytli výsledky nášeho běh pro každou velikost jako baseline.
Přeložili jsme zkušební sadu netrénovanými modely a výsledky vyhodnotili pomocí několika automatických metrik.
Uvádíme také výsledky lidského hodnocení předložených systémů.
English abstract This paper presents the results of the WMT17 Neural MT Training Task.
The objective of this task is to explore the methods of training a fixed neural architecture, aiming primarily at the best translation quality and, as a secondary goal, shorter training time.
Task participants were provided with a complete neural machine translation system, fixed training data and the configuration of the network.
The translation was performed in the English-to-Czech direction and the task was divided into two subtasks of different configurations - one scaled to fit on a 4GB and another on an 8GB GPU card.
We received 3 submissions for the 4GB variant and 1 submission for the 8GB variant; we provided also our run for each of the sizes and two baselines.
We translated the test set with the trained models and evaluated the outputs using several automatic metrics.
We also report results of the human evaluation of the submitted systems.
Specialization linguistics ("jazykověda")
Confidentiality default – not confidential
Open access no
Editor(s)* Ondřej Bojar; et al .
ISBN* 978-1-945626-96-8
Address* Stroudsburg, PA, USA
Month* September
Venue* Øksnehallen
Publisher* Association for Computational Linguistics
Institution* Association for Computational Linguistics
Creator: Common Account
Created: 9/14/17 7:03 PM
Modifier: Common Account
Modified: 10/9/17 12:50 PM
***

Content, Design & Functionality: ÚFAL, 2006–2016. Page generated: Mon Nov 20 03:18:47 CET 2017

[ Back to the navigation ] [ Back to the content ]

100% OpenAIRE compliant