期刊文献+
共找到188篇文章
< 1 2 10 >
每页显示 20 50 100
Storyline Extraction of Document-Level Events Using Large Language Models
1
作者 Ziyang Hu Yaxiong Li 《Journal of Computer and Communications》 2024年第11期162-172,共11页
This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prom... This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prompt + one-shot learning proposed in this article works well. Meanwhile, our research findings indicate that although timeline-based storyline extraction has shown promising prospects in the practical applications of LLMs, it is still a complex natural language processing task that requires further research. 展开更多
关键词 document-level Storyline Extraction TIMELINE Large Language Models Topological Structure of Storyline Prompt Learning
在线阅读 下载PDF
A document-level model for tweet event detection
2
作者 Qin Yanxia Zhang Yue +1 位作者 Zhang Min Zheng Dequan 《High Technology Letters》 EI CAS 2018年第2期208-218,共11页
Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Prev... Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Previous unsupervised approaches detected events by clustering words. These methods detect events using burstiness,which measures surging frequencies of words at certain time windows. However,event clusters represented by a set of individual words are difficult to understand. This issue is addressed by building a document-level event detection model that directly calculates the burstiness of tweets,leveraging distributed word representations for modeling semantic information,thereby avoiding sparsity. Results show that the document-level model not only offers event summaries that are directly human-readable,but also gives significantly improved accuracies compared to previous methods on unsupervised tweet event detection,which are based on words/segments. 展开更多
关键词 social media event detection TWITTER bursty UNSUPERVISED document-level
在线阅读 下载PDF
A multi-view heterogeneous and extractive graph attention network for evidential document-level event factuality identification
3
作者 Zhong QIAN Peifeng LI +1 位作者 Qiaoming ZHU Guodong ZHOU 《Frontiers of Computer Science》 2025年第6期29-43,共15页
Evidential Document-level Event Factuality Identification(EvDEFI)aims to predict the factual nature of an event and extract evidential sentences from the document precisely.Previous work usually limited to only predic... Evidential Document-level Event Factuality Identification(EvDEFI)aims to predict the factual nature of an event and extract evidential sentences from the document precisely.Previous work usually limited to only predicting the factuality of an event with respect to a document,and neglected the interpretability of the task.As a more fine-grained and interpretable task,EvDEFI is still in the early stage.The existing model only used shallow similarity calculation to extract evidences,and employed simple attentions without lexical features,which is quite coarse-grained.Therefore,we propose a novel EvDEFI model named Heterogeneous and Extractive Graph Attention Network(HEGAT),which can update representations of events and sentences by multi-view graph attentions based on tokens and various lexical features from both local and global levels.Experiments on EB-DEF-v2 corpus demonstrate that HEGAT model is superior to several competitive baselines and can validate the interpretability of the task. 展开更多
关键词 evidential document-level event factuality heterogeneous graph network multi-view attentions speculation and negation
原文传递
Document-Level Event Factuality Identification via Reinforced Semantic Learning Network
4
作者 Zhong Qian Pei-Feng Li +1 位作者 Qiao-Ming Zhu Guo-Dong Zhou 《Journal of Computer Science & Technology》 CSCD 2024年第6期1248-1268,共21页
This paper focuses on document-level event factuality identification (DEFI), which predicts the factual nature of an event from the view of a document. As the document-level sub-task of event factuality identification... This paper focuses on document-level event factuality identification (DEFI), which predicts the factual nature of an event from the view of a document. As the document-level sub-task of event factuality identification (EFI), DEFI is a challenging and fundamental task in natural language processing (NLP). Currently, most existing studies focus on sentence-level event factuality identification (SEFI). However, DEFI is still in the early stage and related studies are quite limited. Previous work is heavily dependent on various NLP tools and annotated information, e.g., dependency trees, event triggers, speculative and negative cues, and does not consider filtering irrelevant and noisy texts that can lead to wrong results. To address these issues, this paper proposes a reinforced multi-granularity hierarchical network model: Reinforced Semantic Learning Network (RSLN), which means it can learn semantics from sentences and tokens at various levels of granularity and hierarchy. Since integrated with hierarchical reinforcement learning (HRL), the RSLN model is able to select relevant and meaningful sentences and tokens. Then, RSLN encodes the event and document according to these selected texts. To evaluate our model, based on the DLEF (Document-Level Event Factuality) corpus, we annotate the ExDLEF corpus as the benchmark dataset. Experimental results show that the RSLN model outperforms several state-of-the-arts. 展开更多
关键词 document-level event factuality identification hierarchical reinforcement learning attention network multi-granularity encoding
原文传递
基于深度学习的篇章级事件抽取综述
5
作者 胡蓉 万常选 +2 位作者 万齐智 刘德喜 刘喜平 《计算机学报》 北大核心 2025年第2期381-406,共26页
篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间... 篇章级事件抽取是自然语言处理的重要任务且富有挑战,当前涌现了很多优秀的研究成果。尽管国内外存在少量篇章级事件抽取综述,但存在一些局限:(1)按文献采用的具体技术或任务实现步骤对现有研究成果进行分类,未深入分析现有研究成果间的关联与区别,未深刻理解现有研究成果分别致力于解决哪些问题;(2)简单介绍现有数据集,未能正确认识每个数据集的特点及带来的任务挑战。由于每个数据集侧重点不同,研究者们致力于解决不同的问题,因此现有梳理方式未能清晰地展示不同数据集下不同研究问题的研究进展。为此,本文重新梳理篇章级事件抽取的2个(子)任务的研究成果。首先,针对2个任务,分别明确任务目标,分析解决任务的基本思路,总结现有研究进展(基于哪些数据集解决了哪些问题)。然后,总结对应数据集的特点,归纳任务面临的挑战,再深入分析具体研究方法,并图示化展示推进情况。最后,结合有待继续攻破的问题,讨论篇章级事件抽取未来发展趋势。 展开更多
关键词 篇章级事件抽取 信息抽取 事件抽取数据集 事件论元抽取 深度学习
在线阅读 下载PDF
基于回指与逻辑推理的文档级关系抽取模型
6
作者 胡婕 吴翠 +1 位作者 孙军 张龑 《计算机应用》 北大核心 2025年第5期1496-1503,共8页
在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transfor... 在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transformer的架构融合关系回指图,建模实体间交互和实体内部结构,从而利用回指将更多上下文信息聚合到相应实体上以提高关系抽取的准确性。此外,采用数据驱动方式从关系注释中挖掘逻辑规则,增强对文本隐含逻辑关系的理解和推理能力。针对样本不平衡问题,引入加权长尾损失函数提高对稀有关系的识别准确性。在2个公开数据集DocRED(Document-level Relation Extraction Dataset)和Re-DocRED(Revisiting Documentlevel Relation Extraction Dataset)上的实验结果表明,所提模型性能表现最优,在DocRED测试集上,基于BERT编码器的模型的IgnF1和F1值比基线模型ATLOP(Adaptive Thresholding and Localized cOniext Pooling)分别提高了1.79和2.09个百分点,可见所提模型的综合性能较高。 展开更多
关键词 文档级关系抽取 关系回指图 逻辑规则 样本不平衡 加权长尾损失函数
在线阅读 下载PDF
提示模板引导的文档级金融事件抽取方法研究
7
作者 何丽 李泽龙 +1 位作者 宋靖靖 李志强 《数据分析与知识发现》 北大核心 2025年第7期154-164,共11页
【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强... 【目的】针对文档级金融事件抽取中存在的论元分散和多事件问题,构建提示模板引导的文档级事件抽取模型DEEM-PT。【方法】DEEM-PT设计了基于金融事件类型的提示模板,使用图神经网络和伪事件代理节点增强论元、句子和事件之间的关联,强化多事件之间的信息交互,并使用多头注意力机制对提示模板、论元和事件等特征进行融合。【结果】在ChFinAnn数据集上的实验结果表明,DEEM-PT模型在各类金融事件上都有优异表现,准确率、召回率和F1值总体上分别达到85.2%、81.5%和83.3%。【局限】DEEM-PT模型的训练基于金融领域事件数据集,因此提示模板设计依赖于领域知识和专家。【结论】引入事件提示模板和在图神经网络中增加信息交互可以有效提升模型在事件类型和论元上的分类性能。 展开更多
关键词 文档级金融事件抽取 事件提示模板 图神经网络 自然语言处理
原文传递
融合局部上下文的双图文档级关系抽取方法 被引量:3
8
作者 闻克妍 纪婉婷 宋宝燕 《小型微型计算机系统》 北大核心 2025年第3期535-541,共7页
文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了... 文档级关系抽取是一项复杂的自然语言处理任务,旨在识别出文档中存在的实体,并预测实体之间的关系.相较于句子级关系抽取任务,文档级关系抽取面临更大的挑战,因为它需要考虑整个文档的语义信息和句子间的逻辑关系.针对这一任务,提出了一种融合局部上下文信息的双图推理方法(BRM)用于文档级关系抽取.该方法首先识别文档中的实体提及,并构造了一个提及级别的异构图来表示这些提及以及它们之间的关系.在获得提及级别的表示后,方法进一步构建了一个实体级别的推理图,通过聚合提及级别的信息来形成实体级别的表示,以判断实体之间的关系.该方法在文档级关系抽取公开数据集DocRED上进行了实验.实验结果表明,与现有的文档级关系抽取方法相比,该方法能够更准确地识别实体并预测它们之间的关系. 展开更多
关键词 文档级关系抽取 局部上下文 双图推理 数据集成
在线阅读 下载PDF
图推理嵌入动态自注意力网络的文档级关系抽取 被引量:1
9
作者 李云洁 王丹阳 +2 位作者 刘海涛 汪华东 汪培庄 《智能系统学报》 北大核心 2025年第1期52-63,共12页
文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系... 文档级关系抽取是指从文档中抽取所有具有语义关系的实体对并判断其关系类别,与句子级关系抽取不同,这里实体关系的确定需要根据文档中多个句子推理得到。现有方法主要采用自注意力进行文档级关系抽取,但是运用自注意力进行文档级关系抽取需要面临两个技术挑战:即长文本语义编码存在的高计算复杂度和关系预测需要的复杂推理建模,故提出一种图推理嵌入动态自注意力网络(graph reasoning embedded dynamic self-attention network,GSAN)模型。该模型借助门限词选择机制动态选择重要词计算自注意力实现对长文本语义依赖的高效建模,同时考虑以选择词为全局语义背景与实体候选、文档节点一起构建文档图,将文档图的图推理聚合信息嵌入到动态自注意力模块中,实现模型对复杂推理建模的能力。在公开的文档级关系数据集CDR和DocRED上的实验结果表明,文中提出的模型较其他基线模型有显著提升。 展开更多
关键词 文档级关系抽取 图推理 动态自注意力网络 自注意力机制 门限词选择机制 文档图 图注意力网络 关键词
在线阅读 下载PDF
融合目标端历史信息的篇章级神经机器翻译
10
作者 王晓聪 余正涛 +3 位作者 张元 高盛祥 赖华 李英 《模式识别与人工智能》 北大核心 2025年第5期385-396,共12页
现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用... 现有的篇章级神经机器翻译方法难以有效挖掘目标端远距离的上下文信息,翻译的译文不连贯.为此,文中提出融合目标端历史信息的篇章级神经机器翻译方法.首先,通过多头自注意力机制,获得源语言的上下文表征和目标语言的上文表征.然后,使用线性偏置注意力机制,动态地将历史信息注入当前目标语言表征.最后,通过融合源语言表征和经过增强后的目标语言上下文表征获得较优的篇章译文.在多个数据集上的实验表明,文中方法性能较优,在解码过程中融合通过循环机制建模的长序列信息,可有效提升篇章译文的连贯性和完整性. 展开更多
关键词 神经机器翻译 篇章翻译 线性偏置注意力 历史信息
在线阅读 下载PDF
融合实体与窗口注意力的文档级金融关系抽取
11
作者 朱安东 张晓龙 +3 位作者 林晓丽 刘宇 刘茂福 高峰 《中文信息学报》 北大核心 2025年第6期77-84,共8页
文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解... 文档级金融领域的关系抽取对于构建领域内的知识图谱具有决定性作用。该文针对金融领域上市公司公告的中文数据开展研究,提出了融合实体与窗口注意力的模型,使用了基于滑动窗口的数据预处理优化策略,对长文本(512~2048)进行分割,从而解决了模型在长文本数据上效果差和受限于预训练模型最大输入长度(512)的问题。该模型把头-尾实体信息输入卷积神经网络进行实体信息交互以提取全局特征,同时对预训练模型输出的文档级注意力用固定窗口提取局部特征,将以上两种特征融合后输入到U形神经网络进行关系推理,最后通过双线性函数进行关系预测,解决了文档级关系抽取存在的头-尾实体跨句和实体重叠的问题。该文在自主扩展的FinDoc数据集上进行实验,验证了模型的有效性。 展开更多
关键词 文档级 关系抽取 上市公司公告
在线阅读 下载PDF
文档级神经机器翻译综述
12
作者 吕星林 李军辉 +2 位作者 陶仕敏 杨浩 张民 《软件学报》 北大核心 2025年第1期152-183,共32页
机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到... 机器翻译(machine translation,MT)研究旨在构建一个自动转换系统,将给定源语言序列自动地转换为具有相同语义的目标语言序列.由于机器翻译广阔的应用场景,使其成为自然语言理解领域乃至人工智能领域的一个重要的研究方向.近年来,端到端的神经机器翻译(neural machine translation,NMT)方法显著超越了统计机器翻译(statistical machine translation,SMT)方法,成为目前机器翻译研究的主流方法.然而,神经机器翻译系统通常以句子为翻译单位,在面向文档的翻译场景中,将文档中每个句子独立地进行翻译,会因脱离文档的篇章语境引起一些篇章级的错误,如词语错翻、句子间不连贯等.因此将文档级的信息融入到翻译的过程中去解决跨句的篇章级错误是更加自然和合理的做法,文档级的神经机器翻译(document-level neural machine translation,DNMT)的目标正是如此,成为机器翻译研究的热门方向.调研了近年来在文档级神经机器翻译研究方向的主要工作,从篇章评测方法、使用的数据集和模型方法等方面系统地对当前研究工作进行了归纳与阐述,目的是帮助研究者们快速了解文档级神经机器翻译研究现状以及未来的发展和研究方向.同时在文中也阐述了在文档级神经机器翻译的一些展望、困难和挑战,希望能带给研究者们一些启发. 展开更多
关键词 神经机器翻译 Transformer模型 文档上下文 篇章评测
在线阅读 下载PDF
基于三图特征推理的文档级关系抽取
13
作者 龚俊豪 李卫疆 《中文信息学报》 北大核心 2025年第5期91-101,共11页
文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通... 文档级关系抽取需要对整个文档进行充分理解,整合多个句子内和多个句子间的信息,捕获实体之间复杂的交互。为了解决该问题,并进一步提高推理准确性,该文提出了一个基于多粒度特征的文档级关系抽取模型三图特征推理网络(TFGIN),该模型通过构建三个不同粒度的图,模拟提及间的复杂交互,聚合对应的实体信息并捕捉句子层次的重要特征,最后以多层次的特征信息结合注意力机制推断实体之间的关系。在公共数据集DocRED上进行的实验表明,模型TFGIN在精度上优于其他当前的文档级关系抽取方法。 展开更多
关键词 文档级 关系抽取 提及级图 实体级图 句子级图
在线阅读 下载PDF
基于修辞结构的篇章级神经机器翻译
14
作者 姜云卓 贡正仙 《计算机工程与科学》 北大核心 2025年第1期180-190,共11页
虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提... 虽然篇章级神经机器翻译发展多年,并取得了长足的进步,但是其大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,忽视了使用跨句子的篇章结构和修辞信息对模型进行指导。针对这一问题,在修辞结构理论的指导下,提出了对篇章单元和修辞结构树特征分别进行编码的方法。实验结果表明,所提方法加强了编码器对篇章结构和修辞上的表征能力,使用该方法对模型进行改进后,其翻译结果在多个数据集上都获得了明显提升,性能超过了多个优质的基线模型,并且在提出的定量评估方法和人工分析中译文质量上也表现出了明显改善。 展开更多
关键词 神经机器翻译 篇章分析 篇章翻译 修辞结构理论
在线阅读 下载PDF
基于实体类别信息的数据分析与关系抽取模型构建
15
作者 杨航 张啸成 张永刚 《吉林大学学报(理学版)》 北大核心 2025年第2期428-436,共9页
针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务... 针对文档级关系抽取任务中的实体多提及问题和实体对噪音问题,使用实体的类别信息,提出一个基于实体类别信息的关系抽取模型(EUT模型),该模型通过实体类别判断和类别对产生的关系类别先验两个子任务提高关系抽取结果.实体类别判断任务对实体进行类型标记后,再对实体所有提及进行类型分类,使实体的多个提及产生更丰富且相近的特征表示.关系类别先验任务使模型获得实体对的头尾类型所产生的关系分布先验,通过实体对的类别降低错误实体对噪音.为验证EUT模型的效果,在两个文档级数据集DocRED和Re-DocRED上进行实验,实验结果表明,该模型有效利用了实体的类型信息,与基础模型相比取得了更好的关系抽取效果,表明实体的类别信息对文档级关系抽取有重要影响. 展开更多
关键词 文档级关系抽取 知识图谱 结构化先验 自然语言处理
在线阅读 下载PDF
利用词链提高文档级神经机器翻译的词汇翻译一致性
16
作者 雷翔宇 李军辉 《中文信息学报》 北大核心 2025年第2期72-79,共8页
近年来,各种上下文感知模块的引入,使得文档级神经机器翻译(Document-level Neural Machine Translation,DNMT)取得了令人瞩目的进步。受“一个语篇一个翻译(one translation per discourse)”的启发,该文在代表性DNMT模型G-Transforme... 近年来,各种上下文感知模块的引入,使得文档级神经机器翻译(Document-level Neural Machine Translation,DNMT)取得了令人瞩目的进步。受“一个语篇一个翻译(one translation per discourse)”的启发,该文在代表性DNMT模型G-Transformer的基础上,提出一种有效的方法对源端文档中重复出现的词汇进行建模以缓解词汇翻译不一致问题。具体来说,首先获取源端文档中每个单词的词链;然后,使用词链注意力机制以交换同一词链单词之间的上下文信息,从而增强词汇翻译一致性。基于汉?英和德?英文档级翻译任务的实验结果表明,该文的办法不仅显著缓解了词汇翻译不一致的问题,而且提高了翻译性能。 展开更多
关键词 文档级神经机器翻译 词汇翻译一致性 词链
在线阅读 下载PDF
基于实体表示增强的文档级关系抽取
17
作者 王海杰 张广鑫 +1 位作者 史海 陈树 《计算机应用》 北大核心 2025年第6期1809-1816,共8页
针对现有的文档级关系抽取(DocRE)任务的实体表示学习存在的忽视实体提及差异性和缺少实体对关系抽取复杂度的计算范式的问题,提出一种基于实体表示增强的DocRE模型(DREERE)。首先,利用注意力机制评估实体提及在判定不同实体对关系时的... 针对现有的文档级关系抽取(DocRE)任务的实体表示学习存在的忽视实体提及差异性和缺少实体对关系抽取复杂度的计算范式的问题,提出一种基于实体表示增强的DocRE模型(DREERE)。首先,利用注意力机制评估实体提及在判定不同实体对关系时的差异性,得到更灵活的实体表示;其次,利用编码器计算得到的实体对句子重要性分布评估实体对关系抽取的复杂度,再选择性地利用实体对之间的两跳信息增强实体对的表示;最后,在3个流行的数据集DocRED、Re-DocRED和DWIE上进行实验。结果显示,与最优基线模型(如ATLOP(Adaptive Thresholding and Localized cOntext Pooling)、E2GRE(Entity and Evidence Guided Relation Extraction))相比,DREERE的F1值分别提高了0.06、0.14和0.23个百分点,忽略训练集出现的三元组而计算得到的F1分数(ign-F1)值分别提高了0.07、0.09和0.12个百分点,可见该模型能够有效获取文档里的实体语义信息。 展开更多
关键词 文档级关系抽取 注意力机制 证据搜索 表示学习 两跳信息
在线阅读 下载PDF
Document-Level Neural Machine Translation with Hierarchical Modeling of Global Context 被引量:2
18
作者 Xin Tan Long-Yin Zhang Guo-Dong Zhou 《Journal of Computer Science & Technology》 SCIE EI CSCD 2022年第2期295-308,共14页
Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global conte... Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global context for documentlevel neural machine translation(NMT).This is done through a sentence encoder to capture intra-sentence dependencies and a document encoder to model document-level inter-sentence consistency and coherence.With this hierarchical architecture,we feedback the extracted document-level global context to each word in a top-down fashion to distinguish different translations of a word according to its specific surrounding context.Notably,we explore the effect of three popular attention functions during the information backward-distribution phase to take a deep look into the global context information distribution of our model.In addition,since large-scale in-domain document-level parallel corpora are usually unavailable,we use a two-step training strategy to take advantage of a large-scale corpus with out-of-domain parallel sentence pairs and a small-scale corpus with in-domain parallel document pairs to achieve the domain adaptability.Experimental results of our model on Chinese-English and English-German corpora significantly improve the Transformer baseline by 4.5 BLEU points on average which demonstrates the effectiveness of our proposed hierarchical model in document-level NMT. 展开更多
关键词 neural machine translation document-level translation global context hierarchical model
原文传递
Denoising Graph Inference Network for Document-Level Relation Extraction 被引量:2
19
作者 Hailin Wang Ke Qin +1 位作者 Guiduo Duan Guangchun Luo 《Big Data Mining and Analytics》 EI CSCD 2023年第2期248-262,共15页
Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and ne... Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and necessary pruning is of great importance.The conventional sentence-level RE task addresses this issue by a denoising method using the shortest dependency path to build a long-range semantic dependency between entity pairs.However,this kind of denoising method is scarce in document-level RE.In this work,we explicitly model a denoised document-level graph based on linguistic knowledge to capture various long-range semantic dependencies among entities.We first formalize a Syntactic Dependency Tree forest(SDT-forest)by introducing the syntax and discourse dependency relation.Then,the Steiner tree algorithm extracts a mention-level denoised graph,Steiner Graph(SG),removing linguistically irrelevant words from the SDT-forest.We then devise a slide residual attention to highlight word-level evidence on text and SG.Finally,the classification is established on the SG to infer the relations of entity pairs.We conduct extensive experiments on three public datasets.The results evidence that our method is beneficial to establish long-range semantic dependency and can improve the classification performance with longer texts. 展开更多
关键词 Relation Eextraction(RE) document-level DENOISING linguistic knowledge attention mechanism
原文传递
基于多视角注意力的篇章神经机器翻译
20
作者 贾爱鑫 李军辉 《中文信息学报》 北大核心 2025年第9期43-52,共10页
序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理... 序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理地提出了多视角注意力机制。具体地,该文改进传统的多头注意力机制,使得多头注意力机制可以主动地关注序列内的不同内容,让一部分注意力头关注当前句,另一部分注意力头关注上下文等。在中英和英德篇章数据集上的实验结果表明,该文方法简单有效,在不增加任何参数的情况下,能够有效提升篇章神经机器翻译性能。 展开更多
关键词 神经机器翻译 篇章神经机器翻译 长序列翻译 多视角注意力机制
在线阅读 下载PDF
上一页 1 2 10 下一页 到第
使用帮助 返回顶部