面向神经呆板翻译的篇章级单语批改模子
在指代、词汇选择和名词形态省略题目中,DocRepair具有明明上风,而在动词省略题目中,DocRepair模子比拟CADec低了5百分点。也许的缘故起因是DocRepair模子仅仅依靠于方针端单语,而回收round-trip方法结构的实习齐集很少包括动词缺失的样本,使得模子很难做出正确猜测。 为了验证单语数据的范围性,作者在DocRepair模子长举办了差异数据结构方法的比拟尝试,功效如表4。one-way暗示拿双语数据中的源语替代round-trip的第一步反向进程。可以看出,one-way的方法要整体高于round-trip方法,而个中对付round-trip方法最难的题目就是动词省略。 4、总结这篇事变提出了完全基于方针端单语的DocRepair模子,用来批改呆板翻译功效,办理篇章级纷歧致性。同时对DcoRepair在详细篇章级题目中的机能举办了说明,指出了仅仅依靠于单语数据和round-trip的结构方法的范围性。 以往的事变大多存眷于在解码进程中怎样融合上下文信息,可是机能每每受限于篇章级双语数据的稀缺。这篇事变为我们提供了一个新思绪,可以停止双语数据稀缺的题目,可是也引出了一个新的题目。篇章级翻译的方针是办理传统句子级翻译中丢失句子间上下文信息的题目,而在这种后编辑的要领中,仅仅行使了方针端的一组没有上下文同等性的翻译功效就可以通过单语批改模子得到同等性的功效,缺乏对源语的存眷。笔者以为,在双语稀缺的环境下,怎样更好的引入源语上下文信息也是一个风趣的题目。 参考文献 [1] Voita, Elena, Rico Sennrich, and Ivan Titov. "Context-Aware Monolingual Repair for Neural Machine Translation." arXiv preprint arXiv:1909.01383 (2019). [2] Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems. 2017. [3] Hassan, Hany, et al. "Achieving human parity on automatic chinese to english news translation." arXiv preprint arXiv:1803.05567 (2018). [4] Voita, E., Serdyukov, P., Sennrich, R., & Titov, I. (2018). Context-aware neural machine translation learns anaphora resolution. arXiv preprint arXiv:1805.10163. [5] Zhang, J., Luan, H., Sun, M., Zhai, F., Xu, J., Zhang, M., & Liu, Y. (2018). Improving the transformer translation model with document-level context. arXiv preprint arXiv:1810.03581. [6] Xiong, H., He, Z., Wu, H., & Wang, H. (2019, July). Modeling coherence for discourse neural machine translation. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 33, pp. 7338-7345). [7] Voita, E., Sennrich, R., & Titov, I. (2019). When a Good Translation is Wrong in Context: Context-Aware Machine Translation Improves on Deixis, Ellipsis, and Lexical Cohesion. arXiv preprint arXiv:1905.05979. 【编辑保举】
点赞 0 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |