期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于孪生XLM-R模型的机器翻译双语平行语料过滤方法
1
作者 涂杰 李茂西 裘白莲 《中文信息学报》 北大核心 2025年第2期63-71,共9页
在机器翻译中,模型训练使用的双语平行语料的数量和质量极大地影响了系统的性能,然而当前很多双语平行语料是从双语可比语料中利用自动过滤方法提取的。为了提高双语平行语料自动过滤的性能,该文提出基于孪生XLM-R模型的双语平行语料过... 在机器翻译中,模型训练使用的双语平行语料的数量和质量极大地影响了系统的性能,然而当前很多双语平行语料是从双语可比语料中利用自动过滤方法提取的。为了提高双语平行语料自动过滤的性能,该文提出基于孪生XLM-R模型的双语平行语料过滤方法,使用基于跨语言预训练语言模型XLM-R的孪生神经网络将源语言句子与目标语言句子映射到深层语义空间,利用平均池化操作获得它们相同维度的句子表征,根据句子表征间余弦距离提取相似度高的平行句对。在WMT18双语平行语料过滤任务上的实验结果表明,该文所提模型优于对比的基线模型,与参与该评测的系统具有较好的可比性。 展开更多
关键词 机器翻译 双语平行语料自动过滤 孪生神经网络 xlm-r模型 对比损失
在线阅读 下载PDF
基于跨语种预训练语言模型XLM-R的神经机器翻译方法 被引量:12
2
作者 王倩 李茂西 +1 位作者 吴水秀 王明文 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第1期29-36,共8页
探索将XLM-R跨语种预训练语言模型应用在神经机器翻译的源语言端、目标语言端和两端,提高机器翻译的质量。提出3种网络模型,分别在Transformer神经网络模型的编码器、解码器以及两端同时引入预训练的XLM-R多语种词语表示。在WMT英语-德... 探索将XLM-R跨语种预训练语言模型应用在神经机器翻译的源语言端、目标语言端和两端,提高机器翻译的质量。提出3种网络模型,分别在Transformer神经网络模型的编码器、解码器以及两端同时引入预训练的XLM-R多语种词语表示。在WMT英语-德语、IWSLT英语-葡萄牙语以及英语-越南语等翻译中的实验结果表明,对双语平行语料资源丰富的翻译任务,引入XLM-R可以很好地对源语言句子进行编码,从而提高翻译质量;对双语平行语料资源匮乏的翻译任务,引入XLM-R不仅可以很好地对源语言句子进行编码,还可以对源语言端和目标语言端的知识同时进行补充,提高翻译质量。 展开更多
关键词 跨语种预训练语言模型 神经机器翻译 Transformer网络模型 xlm-r模型 微调
在线阅读 下载PDF
引入源端信息的IPC和CLC类目自动映射研究
3
作者 钟易佳 李茂西 +2 位作者 王倩 黄琪 何彦青 《中文信息学报》 北大核心 2025年第3期159-168,共10页
国际专利分类法(International Patent Classification,IPC)是专利文献分类和检索的国际标准;中国图书馆分类法(Chinese library classification,CLC)是我国图书期刊的大型综合性分类法。自动准确地建立IPC类目和CLC类目之间的映射对实... 国际专利分类法(International Patent Classification,IPC)是专利文献分类和检索的国际标准;中国图书馆分类法(Chinese library classification,CLC)是我国图书期刊的大型综合性分类法。自动准确地建立IPC类目和CLC类目之间的映射对实现专利文献和图书期刊文献的跨库检索和交叉浏览有着重要的意义。针对当前研究中仅使用IPC中文译本类目描述文本来建立其与CLC类目之间的映射,完全忽略IPC原版英语类目描述文本信息的不足,该文提出了一种基于神经网络的IPC和CLC类目自动映射方法,通过引入源端信息(英语端信息)实现自动映射。首先分别通过预训练语言模型BERT和XLM-R生成IPC类目描述文本和CLC类目描述文本的词表征;然后利用多头注意力机制融合IPC类目的BERT模型词表征和XLM-R模型词表征,以及CLC类目的BERT模型词表征和XLM-R模型词表征,最后使用两个前馈神经网络层建立IPC类目和CLC类目之间的映射。在公开数据集上的实验结果表明,该文提出的方法显著优于当前最优方法,且其性能更稳定、泛化性更强。 展开更多
关键词 国际专利分类法 中国图书馆分类法 BERT xlm-r 多头注意力机制
在线阅读 下载PDF
基于句级别GAN的跨语言零资源命名实体识别模型 被引量:2
4
作者 张小艳 段正宇 《计算机应用》 CSCD 北大核心 2023年第8期2406-2411,共6页
针对低资源语言缺少标签数据,而无法使用现有成熟的深度学习方法进行命名实体识别(NER)的问题,提出基于句级别对抗生成网络(GAN)的跨语言NER模型——SLGAN-XLM-R(Sentence Level GAN Based on XLM-R)。首先,使用源语言的标签数据在预训... 针对低资源语言缺少标签数据,而无法使用现有成熟的深度学习方法进行命名实体识别(NER)的问题,提出基于句级别对抗生成网络(GAN)的跨语言NER模型——SLGAN-XLM-R(Sentence Level GAN Based on XLM-R)。首先,使用源语言的标签数据在预训练模型XLM-R (XLM-Robustly optimized BERT pretraining approach)的基础上训练NER模型;同时,结合目标语言的无标签数据对XLM-R模型的嵌入层进行语言对抗训练;然后,使用NER模型来预测目标语言无标签数据的软标签;最后,混合源语言与目标语言的标签数据,以对模型进行二次微调来得到最终的NER模型。在CoNLL2002和CoNLL2003两个数据集的英语、德语、西班牙语、荷兰语四种语言上的实验结果表明,以英语作为源语言时,SLGAN-XLM-R模型在德语、西班牙语、荷兰语测试集上的F1值分别为72.70%、79.42%、80.03%,相较于直接在XLM-R模型上进行微调分别提升了5.38、5.38、3.05个百分点。 展开更多
关键词 跨语言 命名实体识别 xlm-r 语言对抗训练 预训练模型
在线阅读 下载PDF
基于深度学习的跨语言文本情报分类方法研究
5
作者 殷来祥 李志强 李元龙 《指挥控制与仿真》 2023年第2期101-106,共6页
文本情报分类工作是情报分析领域的基础性工作。目前,文本情报分类工作通常面向单一语言,跨语言文本情报分类研究相对较少。针对跨语言文本情报分类问题,提出了“XLM-R+TextCNN”模型,通过基于大规模多语种语料训练的跨语言预训练模型(X... 文本情报分类工作是情报分析领域的基础性工作。目前,文本情报分类工作通常面向单一语言,跨语言文本情报分类研究相对较少。针对跨语言文本情报分类问题,提出了“XLM-R+TextCNN”模型,通过基于大规模多语种语料训练的跨语言预训练模型(XLM-R)生成与具体语言表示形式无关的文本情报向量,将文本向量输入TextCNN模型,获取文本情报的类别特征,实现对跨语言文本情报的分类。以开源国防科技情报为基础,构建了跨语言文本情报分类数据集,并对模型进行了测试。实验表明,该模型在多项对比评测中,取得了不错的成绩,验证了本方法的可行性与有效性。 展开更多
关键词 文本情报 分类 跨语言 xlm-r TextCNN
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部