Použití jazykových modelů v neautoregresivním neuronovém strojovém překladu
Incorporating Language Models into Non-autoregressive Neural Machine Translation
Typ dokumentu
diplomová prácemaster thesis
Autor
Zdeněk Kasner
Vedoucí práce
Helcl Jindřich
Oponent práce
Šourek Gustav
Studijní obor
Umělá inteligenceStudijní program
Otevřená informatikaInstituce přidělující hodnost
katedra počítačůPráva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmlVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznamAbstrakt
V této práci navrhujeme způsob pro zlepšení plynulosti výstupu neautoregresivního modelu pro neuronový strojový překlad. Využíváme k tomu rozšířený model pro počítání skóre během paprskového prohledávání. Skóre vypočítáváme jako lineární kombinaci dílčích skóre pocházejících z n-gramového jazykového modelu a dalších pomocných příznaků. Váhy pro lineární kombinaci určujeme pomocí strukturovaného perceptronu. Pro vyhodnocení rychlosti a kvality překladu trénujeme modely pro tři dvojice jazyků. Výsledky ukazují, že modely s navrženým vylepšením jsou stále dostatečně efektivní z hlediska rychlosti a zároveň dosahují výsledků srovnatelných s autoregresivními modely. In order to improve the fluency of a non-autoregressive model for neural machine translation, we propose an extension for the scoring model used during the beam search decoding. We compute the score as a linear combination of feature values, including the score from an n-gram language model and other auxiliary features. We determine the weights of the features using the structured perceptron algorithm. We train the models for three language pairs and evaluate their decoding speed and translation quality. The results show that our proposed models are still efficient in terms of decoding speed while achieving a competitive score relative to autoregressive models.
Kolekce
- Diplomové práce - 13136 [902]