基于知识迁移的多语言神经机器翻译增量学习方法

Kaiyu Huang, Peng Li , Jin Ma, Ting Yao, Yang Liu
在现实世界中,多语言神经机器翻译(MNMT)的一个长期目标是,单个模型可以在不访问先前训练数据的情况下逐渐适应新的语言对。在这种情况下,以前的研究集中于克服灾难性遗忘,而缺乏从增量语言对中学习新知识的鼓励,尤其是当增量语言与原始语言集无关时。为了更好地获取新知识,...

用户分享观点: