期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
融合LSSD策略的NAT-Transformer低资源神经机器翻译
1
作者
王方林
苏雪平
雷一航
《长江信息通信》
2025年第2期30-33,共4页
随着神经机器翻译技术的不断发展,低资源语言的翻译需求迫切增加。然而,现有的翻译模型在处理低资源语言时往往面临翻译质量不高及推理时间过长的这些问题,文章提出了一种基于LSSD策略的NAT-Transformer算法,在预处理部分,通过获取双语...
随着神经机器翻译技术的不断发展,低资源语言的翻译需求迫切增加。然而,现有的翻译模型在处理低资源语言时往往面临翻译质量不高及推理时间过长的这些问题,文章提出了一种基于LSSD策略的NAT-Transformer算法,在预处理部分,通过获取双语平行语料并应用BPE技术,将数据映射到通用向量空间。在预训练部分,采用了多头自注意力机制以及编码器和解码器堆栈结构,从而能够有效地捕捉序列中的依赖关系。最终得到翻译预测。在这个阶段,我们也加入了LSSD(Language-Specific Self-Distillation)策略,通过SGD(随机梯度下降)进行梯度优化,以提升模型在特定语言上的性能。最后,在微调部分,利用预训练模型进一步调整模型参数。实验结果证明,基于LSSD策略的NAT-Transformer算法在BLEU分数上比基线模型提高了3个BLEU值左右,表现出了较好的应用潜力与性能。
展开更多
关键词
低资源机器翻译
nat-transformer
自蒸馏策略
在线阅读
下载PDF
职称材料
题名
融合LSSD策略的NAT-Transformer低资源神经机器翻译
1
作者
王方林
苏雪平
雷一航
机构
西安工程大学
出处
《长江信息通信》
2025年第2期30-33,共4页
基金
陕西省自然科学基础研究计划(2024JC-YBMS-455)
西安市碑林区应用技术研发储备工程项目(GX2405)
+1 种基金
陕西高校青年创新团队
陕西省教育厅科研计划项目,24JP071。
文摘
随着神经机器翻译技术的不断发展,低资源语言的翻译需求迫切增加。然而,现有的翻译模型在处理低资源语言时往往面临翻译质量不高及推理时间过长的这些问题,文章提出了一种基于LSSD策略的NAT-Transformer算法,在预处理部分,通过获取双语平行语料并应用BPE技术,将数据映射到通用向量空间。在预训练部分,采用了多头自注意力机制以及编码器和解码器堆栈结构,从而能够有效地捕捉序列中的依赖关系。最终得到翻译预测。在这个阶段,我们也加入了LSSD(Language-Specific Self-Distillation)策略,通过SGD(随机梯度下降)进行梯度优化,以提升模型在特定语言上的性能。最后,在微调部分,利用预训练模型进一步调整模型参数。实验结果证明,基于LSSD策略的NAT-Transformer算法在BLEU分数上比基线模型提高了3个BLEU值左右,表现出了较好的应用潜力与性能。
关键词
低资源机器翻译
nat-transformer
自蒸馏策略
Keywords
Low-resource machine translation
nat-transformer
Self-distillation strategy
分类号
TP393 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
融合LSSD策略的NAT-Transformer低资源神经机器翻译
王方林
苏雪平
雷一航
《长江信息通信》
2025
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部