期刊文献+
共找到188篇文章
< 1 2 10 >
每页显示 20 50 100
Storyline Extraction of Document-Level Events Using Large Language Models
1
作者 Ziyang Hu Yaxiong Li 《Journal of Computer and Communications》 2024年第11期162-172,共11页
This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prom... This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prompt + one-shot learning proposed in this article works well. Meanwhile, our research findings indicate that although timeline-based storyline extraction has shown promising prospects in the practical applications of LLMs, it is still a complex natural language processing task that requires further research. 展开更多
关键词 document-level Storyline Extraction TIMELINE Large Language Models Topological Structure of Storyline Prompt Learning
在线阅读 下载PDF
基于深度学习的篇章级事件抽取综述
2
作者 胡蓉 万常选 +2 位作者 万齐智 刘德喜 刘喜平 《计算机学报》 北大核心 2025年第2期381-406,共26页
篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间... 篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间的关联与区别,未深刻理解现有研究成果分别致力于解决哪些问题;(2)简单介绍现有数据集,未能正确认识每个数据集的特点及带来的任务挑战。由于每个数据集侧重点不同,研究者们致力于解决不同的问题,因此现有梳理方式未能清晰地展示不同数据集下不同研究问题的研究进展。为此,本文重新梳理篇章级事件抽取的2个(子)任务的研究成果。首先,针对2个任务,分别明确任务目标,分析解决任务的基本思路,总结现有研究进展(基于哪些数据集解决了哪些问题)。然后,总结对应数据集的特点,归纳任务面临的挑战,再深入分析具体研究方法,并图示化展示推进情况。最后,结合有待继续攻破的问题,讨论篇章级事件抽取未来发展趋势。 展开更多
关键词 篇章级事件抽取 信息抽取 事件抽取数据集 事件论元抽取 深度学习
在线阅读 下载PDF
基于回指与逻辑推理的文档级关系抽取模型
3
作者 胡婕 吴翠 +1 位作者 孙军 张龑 《计算机应用》 北大核心 2025年第5期1496-1503,共8页
在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transfor... 在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transformer的架构融合关系回指图,建模实体间交互和实体内部结构,从而利用回指将更多上下文信息聚合到相应实体上以提高关系抽取的准确性。此外,采用数据驱动方式从关系注释中挖掘逻辑规则,增强对文本隐含逻辑关系的理解和推理能力。针对样本不平衡问题,引入加权长尾损失函数提高对稀有关系的识别准确性。在2个公开数据集DocRED(Document-level Relation Extraction Dataset)和Re-DocRED(Revisiting Documentlevel Relation Extraction Dataset)上的实验结果表明,所提模型性能表现最优,在DocRED测试集上,基于BERT编码器的模型的IgnF1和F1值比基线模型ATLOP(Adaptive Thresholding and Localized cOniext Pooling)分别提高了1.79和2.09个百分点,可见所提模型的综合性能较高。 展开更多
关键词 文档级关系抽取 关系回指图 逻辑规则 样本不平衡 加权长尾损失函数
在线阅读 下载PDF
面向知识蒸馏的多任务学习文档级关系抽取
4
作者 张鹏 刘宇 +1 位作者 杜洪霞 郑腾 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第6期884-893,共10页
当前文档级关系抽取方法在建模过程中仍面临语义信息建模不充分、训练数据稀疏等挑战,限制了模型性能的进一步提升。针对上述问题,提出了一种融合知识蒸馏机制的多任务学习文档级关系抽取模型。采用参数硬共享的多任务学习框架,将关系... 当前文档级关系抽取方法在建模过程中仍面临语义信息建模不充分、训练数据稀疏等挑战,限制了模型性能的进一步提升。针对上述问题,提出了一种融合知识蒸馏机制的多任务学习文档级关系抽取模型。采用参数硬共享的多任务学习框架,将关系抽取任务与证据检索任务进行联合建模,促进多种语义特征的协同学习,从而增强模型对长文本中实体关系的理解与表达能力;引入知识蒸馏机制,将远程监督数据中教师模型学到的潜在知识迁移到学生模型中,有效缓解训练数据稀疏带来的学习困难,提升模型的鲁棒性与泛化能力。在公开的DocRED数据集上进行的实验表明,提出的方法在关系抽取和证据检索任务中的F 1值分别比现有最优方法DuRE提升了1.86百分点和3.05百分点,展现出较强的性能优势。实验结果充分验证了模型在融合多任务学习与知识蒸馏方面的有效性,为文档级关系抽取任务提供了一种可行且高效的改进路径。 展开更多
关键词 文档级关系抽取 多任务学习 知识蒸馏
在线阅读 下载PDF
提示模板引导的文档级金融事件抽取方法研究
5
作者 何丽 李泽龙 +1 位作者 宋靖靖 李志强 《数据分析与知识发现》 北大核心 2025年第7期154-164,共11页
【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强... 【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强化多事件之间的信息交互,并使用多头注意力机制对提示模板、论元和事件等特征进行融合。【结果】在ChFinAnn数据集上的实验结果表明,DEEM-PT模型在各类金融事件上都有优异表现,准确率、召回率和F1值总体上分别达到85.2%、81.5%和83.3%。【局限】DEEM-PT模型的训练基于金融领域事件数据集,因此提示模板设计依赖于领域知识和专家。【结论】引入事件提示模板和在图神经网络中增加信息交互可以有效提升模型在事件类型和论元上的分类性能。 展开更多
关键词 文档级金融事件抽取 事件提示模板 图神经网络 自然语言处理
原文传递
基于LoRA微调大模型在网络安全等级保护测评报告质量检测中的应用研究
6
作者 吴建华 刘振宇 +3 位作者 曾睿 王文瑄 易勇 王世轶 《数据与计算发展前沿(中英文)》 2025年第6期111-123,共13页
【目的/意义】网络安全等级保护测评对提升网络系统的安全性、满足合规要求以及促进持续改进具有非常重要的意义。但是,测评记录的错误、矛盾等情况在报告中时有发生,严重的甚至会影响到报告的结论。【方法】因此,本文创新性地提出将基... 【目的/意义】网络安全等级保护测评对提升网络系统的安全性、满足合规要求以及促进持续改进具有非常重要的意义。但是,测评记录的错误、矛盾等情况在报告中时有发生,严重的甚至会影响到报告的结论。【方法】因此,本文创新性地提出将基于LoRA微调的大语言模型应用于等保报告审核。本文先将检测需求转换为一个基于逻辑推理和自然语言理解的多分类任务,然后据此构建微调数据集,并基于该数据集对glm-4-9b-1m-chat、chatglm3-6b与deepseek-r1-distill-qwen-7b大模型进行微调。【结果】实验结果显示,微调后的大模型与基座模型相比,其Bleu-4和Rouge-1值有大幅提升,并且多分类的准确率达到了87%。【结论】经过微调,大模型的输出质量更高,能较好地满足等级保护测评报告质量检测这一垂直领域的要求。本文提出的LoRA微调大模型为等级保护测评报告等类型的文档质量检测提供了新思路。 展开更多
关键词 大语言模型 LoRA微调 网络安全 文档质量检测 等保测评
在线阅读 下载PDF
Levels of toxic metal in Achatina achatina from parts of Akwa Ibom State, Nigeria
7
作者 Essien D. Udosen (Department of Chemistry and Biochemistry, University of Uyo,Nigeria) 《Journal of Environmental Sciences》 SCIE EI CAS CSCD 2000年第1期70-76,共7页
Tropical land snail (Achatina achatina) were collected from three areas viz.Nsit Ibom Local Government Area (NTB), Nsit Ubium Local Government Area (NTU) and Uyo Municipality (UYM), all in Akwa Ibom State to deter... Tropical land snail (Achatina achatina) were collected from three areas viz.Nsit Ibom Local Government Area (NTB), Nsit Ubium Local Government Area (NTU) and Uyo Municipality (UYM), all in Akwa Ibom State to determine the levels of Ni, Pb, Zn and Cr in their shells and muscles. Generally, the levels of all the metals in the muscles were comparatively higher than that in the shells. Correspondingly, the metals appear to have been more stable in the muscles with comparatively lower coefficients of variation than in the shells. Moreover while there was no significant correlation between the levels of all the metals in shells and muscles of NTU samples, Pb and Zn in NTB correlated very significantly. The correlation between levels of Cr in NTB samples and of Zn in UYM samples in shells and muscles were equally significant. On the whole, the levels of these metals were found to be much lower in both shells and muscles of NTU samples obtained from the “enclosed and restricted” environment than in NTB and UYM samples collected randomly from “open and unrestricted” environments. 展开更多
关键词 levels of toxic Achatina achatina Nigeria CLC number: X75 document code: A
在线阅读 下载PDF
文档级神经机器翻译综述 被引量:1
8
作者 吕星林 李军辉 +2 位作者 陶仕敏 杨浩 张民 《软件学报》 北大核心 2025年第1期152-183,共32页
机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到... 机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到端的神经机器翻译(neural machine translation,NMT)方法显著超越了统计机器翻译(statistical machine translation,SMT)方法,成为目前机器翻译研究的主流方法.然而,神经机器翻译系统通常以句子为翻译单位,在面向文档的翻译场景中,将文档中每个句子独立地进行翻译,会因脱离文档的篇章语境引起一些篇章级的错误,如词语错翻、句子间不连贯等.因此将文档级的信息融入到翻译的过程中去解决跨句的篇章级错误是更加自然和合理的做法,文档级的神经机器翻译(document-level neural machine translation,DNMT)的目标正是如此,成为机器翻译研究的热门方向.调研了近年来在文档级神经机器翻译研究方向的主要工作,从篇章评测方法、使用的数据集和模型方法等方面系统地对当前研究工作进行了归纳与阐述,目的是帮助研究者们快速了解文档级神经机器翻译研究现状以及未来的发展和研究方向.同时在文中也阐述了在文档级神经机器翻译的一些展望、困难和挑战,希望能带给研究者们一些启发. 展开更多
关键词 神经机器翻译 Transformer模型 文档上下文 篇章评测
在线阅读 下载PDF
融合局部上下文的双图文档级关系抽取方法 被引量:3
9
作者 闻克妍 纪婉婷 宋宝燕 《小型微型计算机系统》 北大核心 2025年第3期535-541,共7页
文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了... 文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了一种融合局部上下文信息的双图推理方法(BRM)用于文档级关系抽取.该方法首先识别文档中的实体提及,并构造了一个提及级别的异构图来表示这些提及以及它们之间的关系.在获得提及级别的表示后,方法进一步构建了一个实体级别的推理图,通过聚合提及级别的信息来形成实体级别的表示,以判断实体之间的关系.该方法在文档级关系抽取公开数据集DocRED上进行了实验.实验结果表明,与现有的文档级关系抽取方法相比,该方法能够更准确地识别实体并预测它们之间的关系. 展开更多
关键词 文档级关系抽取 局部上下文 双图推理 数据集成
在线阅读 下载PDF
基于GJB 5000B的信息系统软件开发文档剪裁指南
10
作者 王伟 《电子质量》 2025年第11期102-108,共7页
在信息系统软件开发过程中,GJB 5000B与GJB438C作为顶层指导标准,对文档编制提出了严格要求。然而,面对多样化的项目需求与资源限制,全面编制文档将带来巨大工作量,影响开发效率,而“一刀切”的文档编制方式往往难以适应实际需要。为此... 在信息系统软件开发过程中,GJB 5000B与GJB438C作为顶层指导标准,对文档编制提出了严格要求。然而,面对多样化的项目需求与资源限制,全面编制文档将带来巨大工作量,影响开发效率,而“一刀切”的文档编制方式往往难以适应实际需要。为此,提出一套基于GJB 500B的信息系统软件开发文档剪裁指南,旨在帮助开发人员在满足军标要求的前提下提升文档编制效率。首先,运用系统化理论与方法,将软件开发过程中产生的文档梳理为7大类;其次,阐述了GJB 5000B中不同成熟度等级对应的文档剪裁要求;最后,总结并构建了适用于信息系统的软件开发文档剪裁矩阵。 展开更多
关键词 信息系统 软件开发文档 GJB 5000B 成熟度等级 剪裁矩阵
在线阅读 下载PDF
图推理嵌入动态自注意力网络的文档级关系抽取 被引量:1
11
作者 李云洁 王丹阳 +2 位作者 刘海涛 汪华东 汪培庄 《智能系统学报》 北大核心 2025年第1期52-63,共12页
文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系... 文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系抽取需要面临两个技术挑战:即长文本语义编码存在的高计算复杂度和关系预测需要的复杂推理建模,故提出一种图推理嵌入动态自注意力网络(graph reasoning embedded dynamic self-attention network,GSAN)模型。该模型借助门限词选择机制动态选择重要词计算自注意力实现对长文本语义依赖的高效建模,同时考虑以选择词为全局语义背景与实体候选、文档节点一起构建文档图,将文档图的图推理聚合信息嵌入到动态自注意力模块中,实现模型对复杂推理建模的能力。在公开的文档级关系数据集CDR和DocRED上的实验结果表明,文中提出的模型较其他基线模型有显著提升。 展开更多
关键词 文档级关系抽取 图推理 动态自注意力网络 自注意力机制 门限词选择机制 文档图 图注意力网络 关键词
在线阅读 下载PDF
融合目标端历史信息的篇章级神经机器翻译
12
作者 王晓聪 余正涛 +3 位作者 张元 高盛祥 赖华 李英 《模式识别与人工智能》 北大核心 2025年第5期385-396,共12页
现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用... 现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用线性偏置注意力机制,动态地将历史信息注入当前目标语言表征.最后,通过融合源语言表征和经过增强后的目标语言上下文表征获得较优的篇章译文.在多个数据集上的实验表明,文中方法性能较优,在解码过程中融合通过循环机制建模的长序列信息,可有效提升篇章译文的连贯性和完整性. 展开更多
关键词 神经机器翻译 篇章翻译 线性偏置注意力 历史信息
在线阅读 下载PDF
融合实体与窗口注意力的文档级金融关系抽取
13
作者 朱安东 张晓龙 +3 位作者 林晓丽 刘宇 刘茂福 高峰 《中文信息学报》 北大核心 2025年第6期77-84,共8页
文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解... 文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解决了模型在长文本数据上效果差和受限于预训练模型最大输入长度(512)的问题。该模型把头-尾实体信息输入卷积神经网络进行实体信息交互以提取全局特征,同时对预训练模型输出的文档级注意力用固定窗口提取局部特征,将以上两种特征融合后输入到U形神经网络进行关系推理,最后通过双线性函数进行关系预测,解决了文档级关系抽取存在的头-尾实体跨句和实体重叠的问题。该文在自主扩展的FinDoc数据集上进行实验,验证了模型的有效性。 展开更多
关键词 文档级 关系抽取 上市公司公告
在线阅读 下载PDF
基于三图特征推理的文档级关系抽取
14
作者 龚俊豪 李卫疆 《中文信息学报》 北大核心 2025年第5期91-101,共11页
文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通... 文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通过构建三个不同粒度的图,模拟提及间的复杂交互,聚合对应的实体信息并捕捉句子层次的重要特征,最后以多层次的特征信息结合注意力机制推断实体之间的关系。在公共数据集DocRED上进行的实验表明,模型TFGIN在精度上优于其他当前的文档级关系抽取方法。 展开更多
关键词 文档级 关系抽取 提及级图 实体级图 句子级图
在线阅读 下载PDF
基于修辞结构的篇章级神经机器翻译
15
作者 姜云卓 贡正仙 《计算机工程与科学》 北大核心 2025年第1期180-190,共11页
虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提... 虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提出了对篇章单元和修辞结构树特征分别进行编码的方法。实验结果表明,所提方法加强了编码器对篇章结构和修辞上的表征能力,使用该方法对模型进行改进后,其翻译结果在多个数据集上都获得了明显提升,性能超过了多个优质的基线模型,并且在提出的定量评估方法和人工分析中译文质量上也表现出了明显改善。 展开更多
关键词 神经机器翻译 篇章分析 篇章翻译 修辞结构理论
在线阅读 下载PDF
基于实体类别信息的数据分析与关系抽取模型构建
16
作者 杨航 张啸成 张永刚 《吉林大学学报(理学版)》 北大核心 2025年第2期428-436,共9页
针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务... 针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务对实体进行类型标记后,再对实体所有提及进行类型分类,使实体的多个提及产生更丰富且相近的特征表示.关系类别先验任务使模型获得实体对的头尾类型所产生的关系分布先验,通过实体对的类别降低错误实体对噪音.为验证EUT模型的效果,在两个文档级数据集DocRED和Re-DocRED上进行实验,实验结果表明,该模型有效利用了实体的类型信息,与基础模型相比取得了更好的关系抽取效果,表明实体的类别信息对文档级关系抽取有重要影响. 展开更多
关键词 文档级关系抽取 知识图谱 结构化先验 自然语言处理
在线阅读 下载PDF
基于交互式语义增强的中文文档级事件抽取模型研究
17
作者 张双宝 成全 曾艳 《数据分析与知识发现》 北大核心 2025年第10期120-132,共13页
【目的】充分挖掘中文文档之间的语义关联信息,实现基于交互式语义增强的文档级事件抽取效果的提升。【方法】提出一种交互式语义增强的中文文档级事件抽取模型CSDEE,利用注意力机制构建跨文档的交互式语义网络,增强实体识别性能,再经... 【目的】充分挖掘中文文档之间的语义关联信息,实现基于交互式语义增强的文档级事件抽取效果的提升。【方法】提出一种交互式语义增强的中文文档级事件抽取模型CSDEE,利用注意力机制构建跨文档的交互式语义网络,增强实体识别性能,再经由文档编码与事件抽取信息解码完成事件抽取任务。【结果】实验结果表明,CSDEE模型事件抽取的精确率、召回率和F1值分别达到80.7%、84.1%和82.3%,优于现有基线模型。同时,通过对模型开展消融实验及在公开数据集ChFinAnn和DuEE-Fin上的泛化实验,验证CSDEE模型在中文文档级事件抽取任务中的有效性。【局限】目前模型仅针对文档级事件抽取的性能提升进行相应改进,暂未涉及重叠事件类型的多分类任务。【结论】充分挖掘与关联文档数据之间的相似语义信息能够有效提升文档级事件抽取任务的性能与效果。 展开更多
关键词 文档级事件抽取 交互式语义增强 注意力机制
原文传递
利用词链提高文档级神经机器翻译的词汇翻译一致性
18
作者 雷翔宇 李军辉 《中文信息学报》 北大核心 2025年第2期72-79,共8页
近年来,各种上下文感知模块的引入,使得文档级神经机器翻译(Document-level Neural Machine Translation,DNMT)取得了令人瞩目的进步。受“一个语篇一个翻译(one translation per discourse)”的启发,该文在代表性DNMT模型G-Transforme... 近年来,各种上下文感知模块的引入,使得文档级神经机器翻译(Document-level Neural Machine Translation,DNMT)取得了令人瞩目的进步。受“一个语篇一个翻译(one translation per discourse)”的启发,该文在代表性DNMT模型G-Transformer的基础上,提出一种有效的方法对源端文档中重复出现的词汇进行建模以缓解词汇翻译不一致问题。具体来说,首先获取源端文档中每个单词的词链;然后,使用词链注意力机制以交换同一词链单词之间的上下文信息,从而增强词汇翻译一致性。基于汉?英和德?英文档级翻译任务的实验结果表明,该文的办法不仅显著缓解了词汇翻译不一致的问题,而且提高了翻译性能。 展开更多
关键词 文档级神经机器翻译 词汇翻译一致性 词链
在线阅读 下载PDF
基于实体表示增强的文档级关系抽取
19
作者 王海杰 张广鑫 +1 位作者 史海 陈树 《计算机应用》 北大核心 2025年第6期1809-1816,共8页
针对现有的文档级关系抽取(DocRE)任务的实体表示学习存在的忽视实体提及差异性和缺少实体对关系抽取复杂度的计算范式的问题,提出一种基于实体表示增强的DocRE模型(DREERE)。首先,利用注意力机制评估实体提及在判定不同实体对关系时的... 针对现有的文档级关系抽取(DocRE)任务的实体表示学习存在的忽视实体提及差异性和缺少实体对关系抽取复杂度的计算范式的问题,提出一种基于实体表示增强的DocRE模型(DREERE)。首先,利用注意力机制评估实体提及在判定不同实体对关系时的差异性,得到更灵活的实体表示;其次,利用编码器计算得到的实体对句子重要性分布评估实体对关系抽取的复杂度,再选择性地利用实体对之间的两跳信息增强实体对的表示;最后,在3个流行的数据集DocRED、Re-DocRED和DWIE上进行实验。结果显示,与最优基线模型(如ATLOP(Adaptive Thresholding and Localized cOntext Pooling)、E2GRE(Entity and Evidence Guided Relation Extraction))相比,DREERE的F1值分别提高了0.06、0.14和0.23个百分点,忽略训练集出现的三元组而计算得到的F1分数(ign-F1)值分别提高了0.07、0.09和0.12个百分点,可见该模型能够有效获取文档里的实体语义信息。 展开更多
关键词 文档级关系抽取 注意力机制 证据搜索 表示学习 两跳信息
在线阅读 下载PDF
基于多视角注意力的篇章神经机器翻译
20
作者 贾爱鑫 李军辉 《中文信息学报》 北大核心 2025年第9期43-52,共10页
序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理... 序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理地提出了多视角注意力机制。具体地,该文改进传统的多头注意力机制,使得多头注意力机制可以主动地关注序列内的不同内容,让一部分注意力头关注当前句,另一部分注意力头关注上下文等。在中英和英德篇章数据集上的实验结果表明,该文方法简单有效,在不增加任何参数的情况下,能够有效提升篇章神经机器翻译性能。 展开更多
关键词 神经机器翻译 篇章神经机器翻译 长序列翻译 多视角注意力机制
在线阅读 下载PDF
上一页 1 2 10 下一页 到第
使用帮助 返回顶部