期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
融合LSSD策略的NAT-Transformer低资源神经机器翻译
1
作者 王方林 苏雪平 雷一航 《长江信息通信》 2025年第2期30-33,共4页
随着神经机器翻译技术的不断发展,低资源语言的翻译需求迫切增加。然而,现有的翻译模型在处理低资源语言时往往面临翻译质量不高及推理时间过长的这些问题,文章提出了一种基于LSSD策略的NAT-Transformer算法,在预处理部分,通过获取双语... 随着神经机器翻译技术的不断发展,低资源语言的翻译需求迫切增加。然而,现有的翻译模型在处理低资源语言时往往面临翻译质量不高及推理时间过长的这些问题,文章提出了一种基于LSSD策略的NAT-Transformer算法,在预处理部分,通过获取双语平行语料并应用BPE技术,将数据映射到通用向量空间。在预训练部分,采用了多头自注意力机制以及编码器和解码器堆栈结构,从而能够有效地捕捉序列中的依赖关系。最终得到翻译预测。在这个阶段,我们也加入了LSSD(Language-Specific Self-Distillation)策略,通过SGD(随机梯度下降)进行梯度优化,以提升模型在特定语言上的性能。最后,在微调部分,利用预训练模型进一步调整模型参数。实验结果证明,基于LSSD策略的NAT-Transformer算法在BLEU分数上比基线模型提高了3个BLEU值左右,表现出了较好的应用潜力与性能。 展开更多
关键词 低资源机器翻译 nat-transformer 自蒸馏策略
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部