期刊文献+
共找到191篇文章
< 1 2 10 >
每页显示 20 50 100
Storyline Extraction of Document-Level Events Using Large Language Models
1
作者 Ziyang Hu Yaxiong Li 《Journal of Computer and Communications》 2024年第11期162-172,共11页
This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prom... This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prompt + one-shot learning proposed in this article works well. Meanwhile, our research findings indicate that although timeline-based storyline extraction has shown promising prospects in the practical applications of LLMs, it is still a complex natural language processing task that requires further research. 展开更多
关键词 document-level Storyline Extraction TIMELINE Large Language Models Topological Structure of Storyline Prompt Learning
在线阅读 下载PDF
基于路径推理图的文档级关系抽取模型研究
2
作者 刘军平 何玉茹 +2 位作者 彭涛 胡新荣 朱强 《软件导刊》 2026年第1期26-31,共6页
关系抽取(RE)最近已经从句子级转移到文档级,这需要聚合文档信息,并使用实体和提及加以推理。现有研究忽略了围绕目标实体对的局部上下文信息,且只关注实体级的推理路径,没有考虑文档中跨多个句子的长距离实体之间的复杂交互。为此,提... 关系抽取(RE)最近已经从句子级转移到文档级,这需要聚合文档信息,并使用实体和提及加以推理。现有研究忽略了围绕目标实体对的局部上下文信息,且只关注实体级的推理路径,没有考虑文档中跨多个句子的长距离实体之间的复杂交互。为此,提出了一种新的具有信息聚合和长距离跨句推理的文档级关系抽取模型。首先,构造了一个文档图,对文档中的全局信息进行建模;其次,加入了一个新的节点,以聚合目标实体对的局部上下文信息;再次,将目标实体对之间的各种路径集成到一个更简单的推理图结构中以推理长距离跨句实体对的关系,并进行关系推理。在DocRED、CDR和GDA 3个公共数据集上的实验结果表明,路径推理模型在F1上均优于对比模型,验证了该模型的有效性。 展开更多
关键词 文档级关系抽取 路径推理 长距离依赖 文档图 路径推理图
在线阅读 下载PDF
基于主题融合的语义一致性篇章神经机器翻译
3
作者 刘春娇 郭军军 余正涛 《微电子学与计算机》 2026年第3期35-45,共11页
篇章级神经机器翻译(Document-level Neural Machine Translation,DocNMT)的核心挑战在于有效捕捉文档全局语义并维持翻译一致性,尤其需避免主题漂移和上下文语义断裂。为此,提出了一种基于主题融合的语义一致性篇章神经机器翻译方法。... 篇章级神经机器翻译(Document-level Neural Machine Translation,DocNMT)的核心挑战在于有效捕捉文档全局语义并维持翻译一致性,尤其需避免主题漂移和上下文语义断裂。为此,提出了一种基于主题融合的语义一致性篇章神经机器翻译方法。首先,通过引入主题词,有效减少翻译过程中的主题漂移,增强句子间的逻辑联系,从而提高翻译的一致性和准确性。其次,采用主题词软模版引导的提示学习策略,利用BERT模型对主题词进行编码,并引入一种主题词感知的多表征动态融合机制将这些主题信息与源语言信息进行融合,实现了主题迁移的效果。最后,提出了基于主题词的语义一致性损失函数,平衡源语言信息和主题信息的贡献,避免模型过度依赖主题词。实验结果表明:在四个公开数据集上,所提方法相比句子级模型在s-BLEU分数上平均提高了3分以上;与现有DcNMT模型相比,各项指标表现出色,尤其在News数据集上s-BLEU和d-BLEU分别提升0.66和0.28;验证了该方法在提高篇章翻译质量、一致性和准确性方面的有效性。 展开更多
关键词 篇章机器翻译 全局语义 翻译一致性 BERT 提示学习 融合机制
在线阅读 下载PDF
提示模板引导的文档级金融事件抽取方法研究 被引量:1
4
作者 何丽 李泽龙 +1 位作者 宋靖靖 李志强 《数据分析与知识发现》 北大核心 2025年第7期154-164,共11页
【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强... 【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强化多事件之间的信息交互,并使用多头注意力机制对提示模板、论元和事件等特征进行融合。【结果】在ChFinAnn数据集上的实验结果表明,DEEM-PT模型在各类金融事件上都有优异表现,准确率、召回率和F1值总体上分别达到85.2%、81.5%和83.3%。【局限】DEEM-PT模型的训练基于金融领域事件数据集,因此提示模板设计依赖于领域知识和专家。【结论】引入事件提示模板和在图神经网络中增加信息交互可以有效提升模型在事件类型和论元上的分类性能。 展开更多
关键词 文档级金融事件抽取 事件提示模板 图神经网络 自然语言处理
原文传递
基于深度学习的篇章级事件抽取综述
5
作者 胡蓉 万常选 +2 位作者 万齐智 刘德喜 刘喜平 《计算机学报》 北大核心 2025年第2期381-406,共26页
篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间... 篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间的关联与区别,未深刻理解现有研究成果分别致力于解决哪些问题;(2)简单介绍现有数据集,未能正确认识每个数据集的特点及带来的任务挑战。由于每个数据集侧重点不同,研究者们致力于解决不同的问题,因此现有梳理方式未能清晰地展示不同数据集下不同研究问题的研究进展。为此,本文重新梳理篇章级事件抽取的2个(子)任务的研究成果。首先,针对2个任务,分别明确任务目标,分析解决任务的基本思路,总结现有研究进展(基于哪些数据集解决了哪些问题)。然后,总结对应数据集的特点,归纳任务面临的挑战,再深入分析具体研究方法,并图示化展示推进情况。最后,结合有待继续攻破的问题,讨论篇章级事件抽取未来发展趋势。 展开更多
关键词 篇章级事件抽取 信息抽取 事件抽取数据集 事件论元抽取 深度学习
在线阅读 下载PDF
基于回指与逻辑推理的文档级关系抽取模型
6
作者 胡婕 吴翠 +1 位作者 孙军 张龑 《计算机应用》 北大核心 2025年第5期1496-1503,共8页
在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transfor... 在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transformer的架构融合关系回指图,建模实体间交互和实体内部结构,从而利用回指将更多上下文信息聚合到相应实体上以提高关系抽取的准确性。此外,采用数据驱动方式从关系注释中挖掘逻辑规则,增强对文本隐含逻辑关系的理解和推理能力。针对样本不平衡问题,引入加权长尾损失函数提高对稀有关系的识别准确性。在2个公开数据集DocRED(Document-level Relation Extraction Dataset)和Re-DocRED(Revisiting Documentlevel Relation Extraction Dataset)上的实验结果表明,所提模型性能表现最优,在DocRED测试集上,基于BERT编码器的模型的IgnF1和F1值比基线模型ATLOP(Adaptive Thresholding and Localized cOniext Pooling)分别提高了1.79和2.09个百分点,可见所提模型的综合性能较高。 展开更多
关键词 文档级关系抽取 关系回指图 逻辑规则 样本不平衡 加权长尾损失函数
在线阅读 下载PDF
基于多尺度阅读理解的文档级事件抽取
7
作者 赵红燕 李永豪 《中文信息学报》 北大核心 2025年第12期101-108,121,共9页
文档级事件抽取是从多个句子中抽取事件类型及其对应的论元的任务。现有的文档级事件抽取模型主要面临论元分散和多事件等挑战问题。为了解决这些问题,该文提出了一种基于多尺度阅读理解的文档级事件抽取方法,旨在通过多个不同尺度的阅... 文档级事件抽取是从多个句子中抽取事件类型及其对应的论元的任务。现有的文档级事件抽取模型主要面临论元分散和多事件等挑战问题。为了解决这些问题,该文提出了一种基于多尺度阅读理解的文档级事件抽取方法,旨在通过多个不同尺度的阅读理解模式实现不同粒度的语义信息表示,提高事件类型和论元识别的精度,并采用豪斯多夫距离算法作为全局优化策略解决论元与角色匹配问题。实验结果表明,该方法在ChFinAnn和DuEE-Fin数据集上均显示出优越的性能,有效提升了文档级事件抽取的准确率和性能。 展开更多
关键词 文档级事件抽取 阅读理解 豪斯多夫距离
在线阅读 下载PDF
面向知识蒸馏的多任务学习文档级关系抽取
8
作者 张鹏 刘宇 +1 位作者 杜洪霞 郑腾 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第6期884-893,共10页
当前文档级关系抽取方法在建模过程中仍面临语义信息建模不充分、训练数据稀疏等挑战,限制了模型性能的进一步提升。针对上述问题,提出了一种融合知识蒸馏机制的多任务学习文档级关系抽取模型。采用参数硬共享的多任务学习框架,将关系... 当前文档级关系抽取方法在建模过程中仍面临语义信息建模不充分、训练数据稀疏等挑战,限制了模型性能的进一步提升。针对上述问题,提出了一种融合知识蒸馏机制的多任务学习文档级关系抽取模型。采用参数硬共享的多任务学习框架,将关系抽取任务与证据检索任务进行联合建模,促进多种语义特征的协同学习,从而增强模型对长文本中实体关系的理解与表达能力;引入知识蒸馏机制,将远程监督数据中教师模型学到的潜在知识迁移到学生模型中,有效缓解训练数据稀疏带来的学习困难,提升模型的鲁棒性与泛化能力。在公开的DocRED数据集上进行的实验表明,提出的方法在关系抽取和证据检索任务中的F 1值分别比现有最优方法DuRE提升了1.86百分点和3.05百分点,展现出较强的性能优势。实验结果充分验证了模型在融合多任务学习与知识蒸馏方面的有效性,为文档级关系抽取任务提供了一种可行且高效的改进路径。 展开更多
关键词 文档级关系抽取 多任务学习 知识蒸馏
在线阅读 下载PDF
基于LoRA微调大模型在网络安全等级保护测评报告质量检测中的应用研究
9
作者 吴建华 刘振宇 +3 位作者 曾睿 王文瑄 易勇 王世轶 《数据与计算发展前沿(中英文)》 2025年第6期111-123,共13页
【目的/意义】网络安全等级保护测评对提升网络系统的安全性、满足合规要求以及促进持续改进具有非常重要的意义。但是,测评记录的错误、矛盾等情况在报告中时有发生,严重的甚至会影响到报告的结论。【方法】因此,本文创新性地提出将基... 【目的/意义】网络安全等级保护测评对提升网络系统的安全性、满足合规要求以及促进持续改进具有非常重要的意义。但是,测评记录的错误、矛盾等情况在报告中时有发生,严重的甚至会影响到报告的结论。【方法】因此,本文创新性地提出将基于LoRA微调的大语言模型应用于等保报告审核。本文先将检测需求转换为一个基于逻辑推理和自然语言理解的多分类任务,然后据此构建微调数据集,并基于该数据集对glm-4-9b-1m-chat、chatglm3-6b与deepseek-r1-distill-qwen-7b大模型进行微调。【结果】实验结果显示,微调后的大模型与基座模型相比,其Bleu-4和Rouge-1值有大幅提升,并且多分类的准确率达到了87%。【结论】经过微调,大模型的输出质量更高,能较好地满足等级保护测评报告质量检测这一垂直领域的要求。本文提出的LoRA微调大模型为等级保护测评报告等类型的文档质量检测提供了新思路。 展开更多
关键词 大语言模型 LoRA微调 网络安全 文档质量检测 等保测评
在线阅读 下载PDF
文档级神经机器翻译综述 被引量:3
10
作者 吕星林 李军辉 +2 位作者 陶仕敏 杨浩 张民 《软件学报》 北大核心 2025年第1期152-183,共32页
机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到... 机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到端的神经机器翻译(neural machine translation,NMT)方法显著超越了统计机器翻译(statistical machine translation,SMT)方法,成为目前机器翻译研究的主流方法.然而,神经机器翻译系统通常以句子为翻译单位,在面向文档的翻译场景中,将文档中每个句子独立地进行翻译,会因脱离文档的篇章语境引起一些篇章级的错误,如词语错翻、句子间不连贯等.因此将文档级的信息融入到翻译的过程中去解决跨句的篇章级错误是更加自然和合理的做法,文档级的神经机器翻译(document-level neural machine translation,DNMT)的目标正是如此,成为机器翻译研究的热门方向.调研了近年来在文档级神经机器翻译研究方向的主要工作,从篇章评测方法、使用的数据集和模型方法等方面系统地对当前研究工作进行了归纳与阐述,目的是帮助研究者们快速了解文档级神经机器翻译研究现状以及未来的发展和研究方向.同时在文中也阐述了在文档级神经机器翻译的一些展望、困难和挑战,希望能带给研究者们一些启发. 展开更多
关键词 神经机器翻译 Transformer模型 文档上下文 篇章评测
在线阅读 下载PDF
Levels of toxic metal in Achatina achatina from parts of Akwa Ibom State, Nigeria
11
作者 Essien D. Udosen (Department of Chemistry and Biochemistry, University of Uyo,Nigeria) 《Journal of Environmental Sciences》 SCIE EI CAS CSCD 2000年第1期70-76,共7页
Tropical land snail (Achatina achatina) were collected from three areas viz.Nsit Ibom Local Government Area (NTB), Nsit Ubium Local Government Area (NTU) and Uyo Municipality (UYM), all in Akwa Ibom State to deter... Tropical land snail (Achatina achatina) were collected from three areas viz.Nsit Ibom Local Government Area (NTB), Nsit Ubium Local Government Area (NTU) and Uyo Municipality (UYM), all in Akwa Ibom State to determine the levels of Ni, Pb, Zn and Cr in their shells and muscles. Generally, the levels of all the metals in the muscles were comparatively higher than that in the shells. Correspondingly, the metals appear to have been more stable in the muscles with comparatively lower coefficients of variation than in the shells. Moreover while there was no significant correlation between the levels of all the metals in shells and muscles of NTU samples, Pb and Zn in NTB correlated very significantly. The correlation between levels of Cr in NTB samples and of Zn in UYM samples in shells and muscles were equally significant. On the whole, the levels of these metals were found to be much lower in both shells and muscles of NTU samples obtained from the “enclosed and restricted” environment than in NTB and UYM samples collected randomly from “open and unrestricted” environments. 展开更多
关键词 levels of toxic Achatina achatina Nigeria CLC number: X75 document code: A
在线阅读 下载PDF
融合局部上下文的双图文档级关系抽取方法 被引量:3
12
作者 闻克妍 纪婉婷 宋宝燕 《小型微型计算机系统》 北大核心 2025年第3期535-541,共7页
文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了... 文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了一种融合局部上下文信息的双图推理方法(BRM)用于文档级关系抽取.该方法首先识别文档中的实体提及,并构造了一个提及级别的异构图来表示这些提及以及它们之间的关系.在获得提及级别的表示后,方法进一步构建了一个实体级别的推理图,通过聚合提及级别的信息来形成实体级别的表示,以判断实体之间的关系.该方法在文档级关系抽取公开数据集DocRED上进行了实验.实验结果表明,与现有的文档级关系抽取方法相比,该方法能够更准确地识别实体并预测它们之间的关系. 展开更多
关键词 文档级关系抽取 局部上下文 双图推理 数据集成
在线阅读 下载PDF
基于GJB 5000B的信息系统软件开发文档剪裁指南
13
作者 王伟 《电子质量》 2025年第11期102-108,共7页
在信息系统软件开发过程中,GJB 5000B与GJB438C作为顶层指导标准,对文档编制提出了严格要求。然而,面对多样化的项目需求与资源限制,全面编制文档将带来巨大工作量,影响开发效率,而“一刀切”的文档编制方式往往难以适应实际需要。为此... 在信息系统软件开发过程中,GJB 5000B与GJB438C作为顶层指导标准,对文档编制提出了严格要求。然而,面对多样化的项目需求与资源限制,全面编制文档将带来巨大工作量,影响开发效率,而“一刀切”的文档编制方式往往难以适应实际需要。为此,提出一套基于GJB 500B的信息系统软件开发文档剪裁指南,旨在帮助开发人员在满足军标要求的前提下提升文档编制效率。首先,运用系统化理论与方法,将软件开发过程中产生的文档梳理为7大类;其次,阐述了GJB 5000B中不同成熟度等级对应的文档剪裁要求;最后,总结并构建了适用于信息系统的软件开发文档剪裁矩阵。 展开更多
关键词 信息系统 软件开发文档 GJB 5000B 成熟度等级 剪裁矩阵
在线阅读 下载PDF
图推理嵌入动态自注意力网络的文档级关系抽取 被引量:1
14
作者 李云洁 王丹阳 +2 位作者 刘海涛 汪华东 汪培庄 《智能系统学报》 北大核心 2025年第1期52-63,共12页
文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系... 文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系抽取需要面临两个技术挑战:即长文本语义编码存在的高计算复杂度和关系预测需要的复杂推理建模,故提出一种图推理嵌入动态自注意力网络(graph reasoning embedded dynamic self-attention network,GSAN)模型。该模型借助门限词选择机制动态选择重要词计算自注意力实现对长文本语义依赖的高效建模,同时考虑以选择词为全局语义背景与实体候选、文档节点一起构建文档图,将文档图的图推理聚合信息嵌入到动态自注意力模块中,实现模型对复杂推理建模的能力。在公开的文档级关系数据集CDR和DocRED上的实验结果表明,文中提出的模型较其他基线模型有显著提升。 展开更多
关键词 文档级关系抽取 图推理 动态自注意力网络 自注意力机制 门限词选择机制 文档图 图注意力网络 关键词
在线阅读 下载PDF
融合目标端历史信息的篇章级神经机器翻译
15
作者 王晓聪 余正涛 +3 位作者 张元 高盛祥 赖华 李英 《模式识别与人工智能》 北大核心 2025年第5期385-396,共12页
现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用... 现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用线性偏置注意力机制,动态地将历史信息注入当前目标语言表征.最后,通过融合源语言表征和经过增强后的目标语言上下文表征获得较优的篇章译文.在多个数据集上的实验表明,文中方法性能较优,在解码过程中融合通过循环机制建模的长序列信息,可有效提升篇章译文的连贯性和完整性. 展开更多
关键词 神经机器翻译 篇章翻译 线性偏置注意力 历史信息
在线阅读 下载PDF
融合实体与窗口注意力的文档级金融关系抽取
16
作者 朱安东 张晓龙 +3 位作者 林晓丽 刘宇 刘茂福 高峰 《中文信息学报》 北大核心 2025年第6期77-84,共8页
文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解... 文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解决了模型在长文本数据上效果差和受限于预训练模型最大输入长度(512)的问题。该模型把头-尾实体信息输入卷积神经网络进行实体信息交互以提取全局特征,同时对预训练模型输出的文档级注意力用固定窗口提取局部特征,将以上两种特征融合后输入到U形神经网络进行关系推理,最后通过双线性函数进行关系预测,解决了文档级关系抽取存在的头-尾实体跨句和实体重叠的问题。该文在自主扩展的FinDoc数据集上进行实验,验证了模型的有效性。 展开更多
关键词 文档级 关系抽取 上市公司公告
在线阅读 下载PDF
基于三图特征推理的文档级关系抽取
17
作者 龚俊豪 李卫疆 《中文信息学报》 北大核心 2025年第5期91-101,共11页
文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通... 文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通过构建三个不同粒度的图,模拟提及间的复杂交互,聚合对应的实体信息并捕捉句子层次的重要特征,最后以多层次的特征信息结合注意力机制推断实体之间的关系。在公共数据集DocRED上进行的实验表明,模型TFGIN在精度上优于其他当前的文档级关系抽取方法。 展开更多
关键词 文档级 关系抽取 提及级图 实体级图 句子级图
在线阅读 下载PDF
基于修辞结构的篇章级神经机器翻译
18
作者 姜云卓 贡正仙 《计算机工程与科学》 北大核心 2025年第1期180-190,共11页
虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提... 虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提出了对篇章单元和修辞结构树特征分别进行编码的方法。实验结果表明,所提方法加强了编码器对篇章结构和修辞上的表征能力,使用该方法对模型进行改进后,其翻译结果在多个数据集上都获得了明显提升,性能超过了多个优质的基线模型,并且在提出的定量评估方法和人工分析中译文质量上也表现出了明显改善。 展开更多
关键词 神经机器翻译 篇章分析 篇章翻译 修辞结构理论
在线阅读 下载PDF
基于实体类别信息的数据分析与关系抽取模型构建
19
作者 杨航 张啸成 张永刚 《吉林大学学报(理学版)》 北大核心 2025年第2期428-436,共9页
针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务... 针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务对实体进行类型标记后,再对实体所有提及进行类型分类,使实体的多个提及产生更丰富且相近的特征表示.关系类别先验任务使模型获得实体对的头尾类型所产生的关系分布先验,通过实体对的类别降低错误实体对噪音.为验证EUT模型的效果,在两个文档级数据集DocRED和Re-DocRED上进行实验,实验结果表明,该模型有效利用了实体的类型信息,与基础模型相比取得了更好的关系抽取效果,表明实体的类别信息对文档级关系抽取有重要影响. 展开更多
关键词 文档级关系抽取 知识图谱 结构化先验 自然语言处理
在线阅读 下载PDF
大模型知识引导的复合多注意力文档级关系抽取方法 被引量:1
20
作者 竹志超 李建强 +5 位作者 齐宏智 赵青 高齐 李思颖 蔡嘉怡 沈金炎 《浙江大学学报(工学版)》 北大核心 2025年第9期1793-1802,共10页
针对现有文档级关系抽取(DRE)方法对各类语义信息内部特征的重要性区分不足以及外部领域知识规模受限、实时扩展困难的问题,提出大语言模型知识引导的复合多注意力(LKCM)方法.通过集成复合多注意力框架,利用注意力机制对词、句和文档级... 针对现有文档级关系抽取(DRE)方法对各类语义信息内部特征的重要性区分不足以及外部领域知识规模受限、实时扩展困难的问题,提出大语言模型知识引导的复合多注意力(LKCM)方法.通过集成复合多注意力框架,利用注意力机制对词、句和文档级特征进行细致提取,有效区分不同语义信息内部特征的重要性;将大语言模型微调为动态领域知识库组件,借助其广泛的常识性知识和强大的推理能力,持续为模型提供知识指导,有效缓解知识规模有限和难以实时扩展的问题.在真实医学关系数据集上的实验结果表明,LKCM在F1指标上的平均值超出最佳基线方法1.54个百分点.该方法显著提高了长距离跨句关系的捕捉能力,增强了对关键特征的辨识效果,具备较好的性能和推广价值. 展开更多
关键词 文档级关系抽取 领域知识 注意力 大语言模型 常识推理
在线阅读 下载PDF
上一页 1 2 10 下一页 到第
使用帮助 返回顶部