期刊文献+
共找到194篇文章
< 1 2 10 >
每页显示 20 50 100
A document-level model for tweet event detection
1
作者 Qin Yanxia Zhang Yue +1 位作者 Zhang Min Zheng Dequan 《High Technology Letters》 EI CAS 2018年第2期208-218,共11页
Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Prev... Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Previous unsupervised approaches detected events by clustering words. These methods detect events using burstiness,which measures surging frequencies of words at certain time windows. However,event clusters represented by a set of individual words are difficult to understand. This issue is addressed by building a document-level event detection model that directly calculates the burstiness of tweets,leveraging distributed word representations for modeling semantic information,thereby avoiding sparsity. Results show that the document-level model not only offers event summaries that are directly human-readable,but also gives significantly improved accuracies compared to previous methods on unsupervised tweet event detection,which are based on words/segments. 展开更多
关键词 social media event detection TWITTER bursty UNSUPERVISED document-level
在线阅读 下载PDF
Storyline Extraction of Document-Level Events Using Large Language Models
2
作者 Ziyang Hu Yaxiong Li 《Journal of Computer and Communications》 2024年第11期162-172,共11页
This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prom... This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prompt + one-shot learning proposed in this article works well. Meanwhile, our research findings indicate that although timeline-based storyline extraction has shown promising prospects in the practical applications of LLMs, it is still a complex natural language processing task that requires further research. 展开更多
关键词 document-level Storyline Extraction TIMELINE Large Language Models Topological Structure of Storyline Prompt Learning
在线阅读 下载PDF
A multi-view heterogeneous and extractive graph attention network for evidential document-level event factuality identification
3
作者 Zhong QIAN Peifeng LI +1 位作者 Qiaoming ZHU Guodong ZHOU 《Frontiers of Computer Science》 2025年第6期29-43,共15页
Evidential Document-level Event Factuality Identification(EvDEFI)aims to predict the factual nature of an event and extract evidential sentences from the document precisely.Previous work usually limited to only predic... Evidential Document-level Event Factuality Identification(EvDEFI)aims to predict the factual nature of an event and extract evidential sentences from the document precisely.Previous work usually limited to only predicting the factuality of an event with respect to a document,and neglected the interpretability of the task.As a more fine-grained and interpretable task,EvDEFI is still in the early stage.The existing model only used shallow similarity calculation to extract evidences,and employed simple attentions without lexical features,which is quite coarse-grained.Therefore,we propose a novel EvDEFI model named Heterogeneous and Extractive Graph Attention Network(HEGAT),which can update representations of events and sentences by multi-view graph attentions based on tokens and various lexical features from both local and global levels.Experiments on EB-DEF-v2 corpus demonstrate that HEGAT model is superior to several competitive baselines and can validate the interpretability of the task. 展开更多
关键词 evidential document-level event factuality heterogeneous graph network multi-view attentions speculation and negation
原文传递
Document-Level Neural Machine Translation with Hierarchical Modeling of Global Context 被引量:2
4
作者 Xin Tan Long-Yin Zhang Guo-Dong Zhou 《Journal of Computer Science & Technology》 SCIE EI CSCD 2022年第2期295-308,共14页
Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global conte... Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global context for documentlevel neural machine translation(NMT).This is done through a sentence encoder to capture intra-sentence dependencies and a document encoder to model document-level inter-sentence consistency and coherence.With this hierarchical architecture,we feedback the extracted document-level global context to each word in a top-down fashion to distinguish different translations of a word according to its specific surrounding context.Notably,we explore the effect of three popular attention functions during the information backward-distribution phase to take a deep look into the global context information distribution of our model.In addition,since large-scale in-domain document-level parallel corpora are usually unavailable,we use a two-step training strategy to take advantage of a large-scale corpus with out-of-domain parallel sentence pairs and a small-scale corpus with in-domain parallel document pairs to achieve the domain adaptability.Experimental results of our model on Chinese-English and English-German corpora significantly improve the Transformer baseline by 4.5 BLEU points on average which demonstrates the effectiveness of our proposed hierarchical model in document-level NMT. 展开更多
关键词 neural machine translation document-level translation global context hierarchical model
原文传递
Denoising Graph Inference Network for Document-Level Relation Extraction 被引量:2
5
作者 Hailin Wang Ke Qin +1 位作者 Guiduo Duan Guangchun Luo 《Big Data Mining and Analytics》 EI CSCD 2023年第2期248-262,共15页
Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and ne... Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and necessary pruning is of great importance.The conventional sentence-level RE task addresses this issue by a denoising method using the shortest dependency path to build a long-range semantic dependency between entity pairs.However,this kind of denoising method is scarce in document-level RE.In this work,we explicitly model a denoised document-level graph based on linguistic knowledge to capture various long-range semantic dependencies among entities.We first formalize a Syntactic Dependency Tree forest(SDT-forest)by introducing the syntax and discourse dependency relation.Then,the Steiner tree algorithm extracts a mention-level denoised graph,Steiner Graph(SG),removing linguistically irrelevant words from the SDT-forest.We then devise a slide residual attention to highlight word-level evidence on text and SG.Finally,the classification is established on the SG to infer the relations of entity pairs.We conduct extensive experiments on three public datasets.The results evidence that our method is beneficial to establish long-range semantic dependency and can improve the classification performance with longer texts. 展开更多
关键词 Relation Eextraction(RE) document-level DENOISING linguistic knowledge attention mechanism
原文传递
Document-Level Event Factuality Identification via Reinforced Semantic Learning Network
6
作者 Zhong Qian Pei-Feng Li +1 位作者 Qiao-Ming Zhu Guo-Dong Zhou 《Journal of Computer Science & Technology》 CSCD 2024年第6期1248-1268,共21页
This paper focuses on document-level event factuality identification (DEFI), which predicts the factual nature of an event from the view of a document. As the document-level sub-task of event factuality identification... This paper focuses on document-level event factuality identification (DEFI), which predicts the factual nature of an event from the view of a document. As the document-level sub-task of event factuality identification (EFI), DEFI is a challenging and fundamental task in natural language processing (NLP). Currently, most existing studies focus on sentence-level event factuality identification (SEFI). However, DEFI is still in the early stage and related studies are quite limited. Previous work is heavily dependent on various NLP tools and annotated information, e.g., dependency trees, event triggers, speculative and negative cues, and does not consider filtering irrelevant and noisy texts that can lead to wrong results. To address these issues, this paper proposes a reinforced multi-granularity hierarchical network model: Reinforced Semantic Learning Network (RSLN), which means it can learn semantics from sentences and tokens at various levels of granularity and hierarchy. Since integrated with hierarchical reinforcement learning (HRL), the RSLN model is able to select relevant and meaningful sentences and tokens. Then, RSLN encodes the event and document according to these selected texts. To evaluate our model, based on the DLEF (Document-Level Event Factuality) corpus, we annotate the ExDLEF corpus as the benchmark dataset. Experimental results show that the RSLN model outperforms several state-of-the-arts. 展开更多
关键词 document-level event factuality identification hierarchical reinforcement learning attention network multi-granularity encoding
原文传递
基于深度学习的篇章级事件抽取综述
7
作者 胡蓉 万常选 +2 位作者 万齐智 刘德喜 刘喜平 《计算机学报》 北大核心 2025年第2期381-406,共26页
篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间... 篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间的关联与区别,未深刻理解现有研究成果分别致力于解决哪些问题;(2)简单介绍现有数据集,未能正确认识每个数据集的特点及带来的任务挑战。由于每个数据集侧重点不同,研究者们致力于解决不同的问题,因此现有梳理方式未能清晰地展示不同数据集下不同研究问题的研究进展。为此,本文重新梳理篇章级事件抽取的2个(子)任务的研究成果。首先,针对2个任务,分别明确任务目标,分析解决任务的基本思路,总结现有研究进展(基于哪些数据集解决了哪些问题)。然后,总结对应数据集的特点,归纳任务面临的挑战,再深入分析具体研究方法,并图示化展示推进情况。最后,结合有待继续攻破的问题,讨论篇章级事件抽取未来发展趋势。 展开更多
关键词 篇章级事件抽取 信息抽取 事件抽取数据集 事件论元抽取 深度学习
在线阅读 下载PDF
基于回指与逻辑推理的文档级关系抽取模型
8
作者 胡婕 吴翠 +1 位作者 孙军 张龑 《计算机应用》 北大核心 2025年第5期1496-1503,共8页
在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transfor... 在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transformer的架构融合关系回指图,建模实体间交互和实体内部结构,从而利用回指将更多上下文信息聚合到相应实体上以提高关系抽取的准确性。此外,采用数据驱动方式从关系注释中挖掘逻辑规则,增强对文本隐含逻辑关系的理解和推理能力。针对样本不平衡问题,引入加权长尾损失函数提高对稀有关系的识别准确性。在2个公开数据集DocRED(Document-level Relation Extraction Dataset)和Re-DocRED(Revisiting Documentlevel Relation Extraction Dataset)上的实验结果表明,所提模型性能表现最优,在DocRED测试集上,基于BERT编码器的模型的IgnF1和F1值比基线模型ATLOP(Adaptive Thresholding and Localized cOniext Pooling)分别提高了1.79和2.09个百分点,可见所提模型的综合性能较高。 展开更多
关键词 文档级关系抽取 关系回指图 逻辑规则 样本不平衡 加权长尾损失函数
在线阅读 下载PDF
面向知识蒸馏的多任务学习文档级关系抽取
9
作者 张鹏 刘宇 +1 位作者 杜洪霞 郑腾 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第6期884-893,共10页
当前文档级关系抽取方法在建模过程中仍面临语义信息建模不充分、训练数据稀疏等挑战,限制了模型性能的进一步提升。针对上述问题,提出了一种融合知识蒸馏机制的多任务学习文档级关系抽取模型。采用参数硬共享的多任务学习框架,将关系... 当前文档级关系抽取方法在建模过程中仍面临语义信息建模不充分、训练数据稀疏等挑战,限制了模型性能的进一步提升。针对上述问题,提出了一种融合知识蒸馏机制的多任务学习文档级关系抽取模型。采用参数硬共享的多任务学习框架,将关系抽取任务与证据检索任务进行联合建模,促进多种语义特征的协同学习,从而增强模型对长文本中实体关系的理解与表达能力;引入知识蒸馏机制,将远程监督数据中教师模型学到的潜在知识迁移到学生模型中,有效缓解训练数据稀疏带来的学习困难,提升模型的鲁棒性与泛化能力。在公开的DocRED数据集上进行的实验表明,提出的方法在关系抽取和证据检索任务中的F 1值分别比现有最优方法DuRE提升了1.86百分点和3.05百分点,展现出较强的性能优势。实验结果充分验证了模型在融合多任务学习与知识蒸馏方面的有效性,为文档级关系抽取任务提供了一种可行且高效的改进路径。 展开更多
关键词 文档级关系抽取 多任务学习 知识蒸馏
在线阅读 下载PDF
提示模板引导的文档级金融事件抽取方法研究
10
作者 何丽 李泽龙 +1 位作者 宋靖靖 李志强 《数据分析与知识发现》 北大核心 2025年第7期154-164,共11页
【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强... 【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强化多事件之间的信息交互,并使用多头注意力机制对提示模板、论元和事件等特征进行融合。【结果】在ChFinAnn数据集上的实验结果表明,DEEM-PT模型在各类金融事件上都有优异表现,准确率、召回率和F1值总体上分别达到85.2%、81.5%和83.3%。【局限】DEEM-PT模型的训练基于金融领域事件数据集,因此提示模板设计依赖于领域知识和专家。【结论】引入事件提示模板和在图神经网络中增加信息交互可以有效提升模型在事件类型和论元上的分类性能。 展开更多
关键词 文档级金融事件抽取 事件提示模板 图神经网络 自然语言处理
原文传递
基于LoRA微调大模型在网络安全等级保护测评报告质量检测中的应用研究
11
作者 吴建华 刘振宇 +3 位作者 曾睿 王文瑄 易勇 王世轶 《数据与计算发展前沿(中英文)》 2025年第6期111-123,共13页
【目的/意义】网络安全等级保护测评对提升网络系统的安全性、满足合规要求以及促进持续改进具有非常重要的意义。但是,测评记录的错误、矛盾等情况在报告中时有发生,严重的甚至会影响到报告的结论。【方法】因此,本文创新性地提出将基... 【目的/意义】网络安全等级保护测评对提升网络系统的安全性、满足合规要求以及促进持续改进具有非常重要的意义。但是,测评记录的错误、矛盾等情况在报告中时有发生,严重的甚至会影响到报告的结论。【方法】因此,本文创新性地提出将基于LoRA微调的大语言模型应用于等保报告审核。本文先将检测需求转换为一个基于逻辑推理和自然语言理解的多分类任务,然后据此构建微调数据集,并基于该数据集对glm-4-9b-1m-chat、chatglm3-6b与deepseek-r1-distill-qwen-7b大模型进行微调。【结果】实验结果显示,微调后的大模型与基座模型相比,其Bleu-4和Rouge-1值有大幅提升,并且多分类的准确率达到了87%。【结论】经过微调,大模型的输出质量更高,能较好地满足等级保护测评报告质量检测这一垂直领域的要求。本文提出的LoRA微调大模型为等级保护测评报告等类型的文档质量检测提供了新思路。 展开更多
关键词 大语言模型 LoRA微调 网络安全 文档质量检测 等保测评
在线阅读 下载PDF
文档级神经机器翻译综述 被引量:1
12
作者 吕星林 李军辉 +2 位作者 陶仕敏 杨浩 张民 《软件学报》 北大核心 2025年第1期152-183,共32页
机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到... 机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到端的神经机器翻译(neural machine translation,NMT)方法显著超越了统计机器翻译(statistical machine translation,SMT)方法,成为目前机器翻译研究的主流方法.然而,神经机器翻译系统通常以句子为翻译单位,在面向文档的翻译场景中,将文档中每个句子独立地进行翻译,会因脱离文档的篇章语境引起一些篇章级的错误,如词语错翻、句子间不连贯等.因此将文档级的信息融入到翻译的过程中去解决跨句的篇章级错误是更加自然和合理的做法,文档级的神经机器翻译(document-level neural machine translation,DNMT)的目标正是如此,成为机器翻译研究的热门方向.调研了近年来在文档级神经机器翻译研究方向的主要工作,从篇章评测方法、使用的数据集和模型方法等方面系统地对当前研究工作进行了归纳与阐述,目的是帮助研究者们快速了解文档级神经机器翻译研究现状以及未来的发展和研究方向.同时在文中也阐述了在文档级神经机器翻译的一些展望、困难和挑战,希望能带给研究者们一些启发. 展开更多
关键词 神经机器翻译 Transformer模型 文档上下文 篇章评测
在线阅读 下载PDF
融合局部上下文的双图文档级关系抽取方法 被引量:3
13
作者 闻克妍 纪婉婷 宋宝燕 《小型微型计算机系统》 北大核心 2025年第3期535-541,共7页
文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了... 文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了一种融合局部上下文信息的双图推理方法(BRM)用于文档级关系抽取.该方法首先识别文档中的实体提及,并构造了一个提及级别的异构图来表示这些提及以及它们之间的关系.在获得提及级别的表示后,方法进一步构建了一个实体级别的推理图,通过聚合提及级别的信息来形成实体级别的表示,以判断实体之间的关系.该方法在文档级关系抽取公开数据集DocRED上进行了实验.实验结果表明,与现有的文档级关系抽取方法相比,该方法能够更准确地识别实体并预测它们之间的关系. 展开更多
关键词 文档级关系抽取 局部上下文 双图推理 数据集成
在线阅读 下载PDF
基于GJB 5000B的信息系统软件开发文档剪裁指南
14
作者 王伟 《电子质量》 2025年第11期102-108,共7页
在信息系统软件开发过程中,GJB 5000B与GJB438C作为顶层指导标准,对文档编制提出了严格要求。然而,面对多样化的项目需求与资源限制,全面编制文档将带来巨大工作量,影响开发效率,而“一刀切”的文档编制方式往往难以适应实际需要。为此... 在信息系统软件开发过程中,GJB 5000B与GJB438C作为顶层指导标准,对文档编制提出了严格要求。然而,面对多样化的项目需求与资源限制,全面编制文档将带来巨大工作量,影响开发效率,而“一刀切”的文档编制方式往往难以适应实际需要。为此,提出一套基于GJB 500B的信息系统软件开发文档剪裁指南,旨在帮助开发人员在满足军标要求的前提下提升文档编制效率。首先,运用系统化理论与方法,将软件开发过程中产生的文档梳理为7大类;其次,阐述了GJB 5000B中不同成熟度等级对应的文档剪裁要求;最后,总结并构建了适用于信息系统的软件开发文档剪裁矩阵。 展开更多
关键词 信息系统 软件开发文档 GJB 5000B 成熟度等级 剪裁矩阵
在线阅读 下载PDF
图推理嵌入动态自注意力网络的文档级关系抽取 被引量:1
15
作者 李云洁 王丹阳 +2 位作者 刘海涛 汪华东 汪培庄 《智能系统学报》 北大核心 2025年第1期52-63,共12页
文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系... 文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系抽取需要面临两个技术挑战:即长文本语义编码存在的高计算复杂度和关系预测需要的复杂推理建模,故提出一种图推理嵌入动态自注意力网络(graph reasoning embedded dynamic self-attention network,GSAN)模型。该模型借助门限词选择机制动态选择重要词计算自注意力实现对长文本语义依赖的高效建模,同时考虑以选择词为全局语义背景与实体候选、文档节点一起构建文档图,将文档图的图推理聚合信息嵌入到动态自注意力模块中,实现模型对复杂推理建模的能力。在公开的文档级关系数据集CDR和DocRED上的实验结果表明,文中提出的模型较其他基线模型有显著提升。 展开更多
关键词 文档级关系抽取 图推理 动态自注意力网络 自注意力机制 门限词选择机制 文档图 图注意力网络 关键词
在线阅读 下载PDF
融合目标端历史信息的篇章级神经机器翻译
16
作者 王晓聪 余正涛 +3 位作者 张元 高盛祥 赖华 李英 《模式识别与人工智能》 北大核心 2025年第5期385-396,共12页
现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用... 现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用线性偏置注意力机制,动态地将历史信息注入当前目标语言表征.最后,通过融合源语言表征和经过增强后的目标语言上下文表征获得较优的篇章译文.在多个数据集上的实验表明,文中方法性能较优,在解码过程中融合通过循环机制建模的长序列信息,可有效提升篇章译文的连贯性和完整性. 展开更多
关键词 神经机器翻译 篇章翻译 线性偏置注意力 历史信息
在线阅读 下载PDF
融合实体与窗口注意力的文档级金融关系抽取
17
作者 朱安东 张晓龙 +3 位作者 林晓丽 刘宇 刘茂福 高峰 《中文信息学报》 北大核心 2025年第6期77-84,共8页
文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解... 文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解决了模型在长文本数据上效果差和受限于预训练模型最大输入长度(512)的问题。该模型把头-尾实体信息输入卷积神经网络进行实体信息交互以提取全局特征,同时对预训练模型输出的文档级注意力用固定窗口提取局部特征,将以上两种特征融合后输入到U形神经网络进行关系推理,最后通过双线性函数进行关系预测,解决了文档级关系抽取存在的头-尾实体跨句和实体重叠的问题。该文在自主扩展的FinDoc数据集上进行实验,验证了模型的有效性。 展开更多
关键词 文档级 关系抽取 上市公司公告
在线阅读 下载PDF
基于三图特征推理的文档级关系抽取
18
作者 龚俊豪 李卫疆 《中文信息学报》 北大核心 2025年第5期91-101,共11页
文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通... 文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通过构建三个不同粒度的图,模拟提及间的复杂交互,聚合对应的实体信息并捕捉句子层次的重要特征,最后以多层次的特征信息结合注意力机制推断实体之间的关系。在公共数据集DocRED上进行的实验表明,模型TFGIN在精度上优于其他当前的文档级关系抽取方法。 展开更多
关键词 文档级 关系抽取 提及级图 实体级图 句子级图
在线阅读 下载PDF
基于修辞结构的篇章级神经机器翻译
19
作者 姜云卓 贡正仙 《计算机工程与科学》 北大核心 2025年第1期180-190,共11页
虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提... 虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提出了对篇章单元和修辞结构树特征分别进行编码的方法。实验结果表明,所提方法加强了编码器对篇章结构和修辞上的表征能力,使用该方法对模型进行改进后,其翻译结果在多个数据集上都获得了明显提升,性能超过了多个优质的基线模型,并且在提出的定量评估方法和人工分析中译文质量上也表现出了明显改善。 展开更多
关键词 神经机器翻译 篇章分析 篇章翻译 修辞结构理论
在线阅读 下载PDF
基于实体类别信息的数据分析与关系抽取模型构建
20
作者 杨航 张啸成 张永刚 《吉林大学学报(理学版)》 北大核心 2025年第2期428-436,共9页
针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务... 针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务对实体进行类型标记后,再对实体所有提及进行类型分类,使实体的多个提及产生更丰富且相近的特征表示.关系类别先验任务使模型获得实体对的头尾类型所产生的关系分布先验,通过实体对的类别降低错误实体对噪音.为验证EUT模型的效果,在两个文档级数据集DocRED和Re-DocRED上进行实验,实验结果表明,该模型有效利用了实体的类型信息,与基础模型相比取得了更好的关系抽取效果,表明实体的类别信息对文档级关系抽取有重要影响. 展开更多
关键词 文档级关系抽取 知识图谱 结构化先验 自然语言处理
在线阅读 下载PDF
上一页 1 2 10 下一页 到第
使用帮助 返回顶部