期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
基于伪文档与全局信息互补的文档级关系抽取
1
作者 胡建洋 高永彬 +1 位作者 沈马磊 张开昱 《计算机工程与设计》 北大核心 2025年第5期1403-1409,共7页
针对文档级关系抽取中文本处理复杂性高且抽取过程存在噪音的问题,提出一种基于伪文档与全局信息互补的文档级关系抽取方法。通过BERT模型对文档进行编码,使用实体间门控计算模块与语义分割模块抽取原始文档中的关系;使用伪文档抽取模... 针对文档级关系抽取中文本处理复杂性高且抽取过程存在噪音的问题,提出一种基于伪文档与全局信息互补的文档级关系抽取方法。通过BERT模型对文档进行编码,使用实体间门控计算模块与语义分割模块抽取原始文档中的关系;使用伪文档抽取模块过滤文档中无用的句子,抽取伪文档中的实体间关系;将原始文档关系抽取模块与伪文档关系抽取模块的抽取结果进行融合。实验结果表明,所提方法能够有效提高长文本关系抽取的准确率。 展开更多
关键词 文档级 伪文档 全局信息互补 实体间门控计算 语义分割 关系抽取 结果融合
在线阅读 下载PDF
基于伪文档的伪相关反馈方法 被引量:2
2
作者 闫蓉 高光来 《中文信息学报》 CSCD 北大核心 2016年第6期156-163,172,共9页
传统的伪相关反馈(Pseudo Relevance Feedback,PRF)方法通常是以文档作为扩展源单元提取扩展词,提取粒度过大造成扩展源质量下降,使得检索结果鲁棒性差。该文研究利用主题分析技术,尝试将文本语义内容作为扩展源单元,缓解扩展源质量不... 传统的伪相关反馈(Pseudo Relevance Feedback,PRF)方法通常是以文档作为扩展源单元提取扩展词,提取粒度过大造成扩展源质量下降,使得检索结果鲁棒性差。该文研究利用主题分析技术,尝试将文本语义内容作为扩展源单元,缓解扩展源质量不高的问题。提出并实现了对文本集中各文档内容的伪文档描述,通过对其进行隐式多样化处理,实现了从更细微的文本内容角度出发提取扩展词。通过在真实NTCIR8中文语料的检索结果表明,该方法可以有效地提升伪相关反馈的检索性能。 展开更多
关键词 伪相关反馈 伪文档 主题分析 隐含主题
在线阅读 下载PDF
文献传递伪需求产生的动因分析及对策研究——以东北师范大学图书馆为例 被引量:2
3
作者 徐枫 周秀霞 《图书馆工作与研究》 CSSCI 北大核心 2019年第8期66-70,共5页
采用统计分析法和对比分析法对东北师范大学图书馆2017年文献传递用户伪需求请求进行统计分析,揭示文献传递伪需求的多种形态,探究文献传递伪需求产生的深层原因,并提出减少文献传递伪需求的对策,以提高图书馆文献传递服务效率,帮助用... 采用统计分析法和对比分析法对东北师范大学图书馆2017年文献传递用户伪需求请求进行统计分析,揭示文献传递伪需求的多种形态,探究文献传递伪需求产生的深层原因,并提出减少文献传递伪需求的对策,以提高图书馆文献传递服务效率,帮助用户高效获取各类文献资源。 展开更多
关键词 文献传递 伪需求 高校图书馆 动因 分析 对策
原文传递
深入理解CSS3结构伪类选择器 被引量:1
4
作者 黄志刚 《软件工程》 2018年第3期34-36,30,共4页
本文从结构伪类与类选择器的比较、结构伪类与文档树的关系、结构伪类的功能与应用等三个层面,深入阐述了结构伪类的作用,结构伪类所表示的文档树结构,结构伪类通过位置索引定位子元素的机制。通过将定位子元素的结构伪类分为带参数和... 本文从结构伪类与类选择器的比较、结构伪类与文档树的关系、结构伪类的功能与应用等三个层面,深入阐述了结构伪类的作用,结构伪类所表示的文档树结构,结构伪类通过位置索引定位子元素的机制。通过将定位子元素的结构伪类分为带参数和不带参数两类,深入论述了带参数结构伪类的参数模式、典型应用及与不带参数结构伪类的对应关系。 展开更多
关键词 选择器 结构伪类 文档树 位置索引
在线阅读 下载PDF
Web服务器负载均衡的研究 被引量:7
5
作者 陈刚 郭学理 韦智 《计算机应用》 CSCD 北大核心 2001年第9期26-28,共3页
目前的WWW负载均衡大多是通过分布式Web服务器的设计来实现的。而分布式Web服务器设计中的传统技术依赖于对中心资源的操纵 (如路由器或DNS服务器 )。是对目前负载均衡技术存在问题解决方案的进一步研究 ,研究的目标是探索基于应用的负... 目前的WWW负载均衡大多是通过分布式Web服务器的设计来实现的。而分布式Web服务器设计中的传统技术依赖于对中心资源的操纵 (如路由器或DNS服务器 )。是对目前负载均衡技术存在问题解决方案的进一步研究 ,研究的目标是探索基于应用的负载均衡Web服务器(ApplicationBasedLoadBalancingWebServer) 。 展开更多
关键词 负载均衡 动态报文重写 WEB服务器 WWW
在线阅读 下载PDF
基于局部注意力机制的弱监督长文档分类 被引量:1
6
作者 马雯琦 何跃 《计算机系统应用》 2021年第11期54-62,共9页
自然语言处理中的文档分类任务需要模型从低层级词向量中抽取高层级特征.通常,深度神经网络的特征抽取会利用文档中所有词语,这种做法不能很好适应内容较长的文档.此外,训练深度神经网络需要大量标记数据,在弱监督情况下往往不能取得良... 自然语言处理中的文档分类任务需要模型从低层级词向量中抽取高层级特征.通常,深度神经网络的特征抽取会利用文档中所有词语,这种做法不能很好适应内容较长的文档.此外,训练深度神经网络需要大量标记数据,在弱监督情况下往往不能取得良好效果.为迎接这些挑战,本研究提出应对弱监督长文档分类的方法.一方面,利用少量种子信息生成伪文档以增强训练数据,应对缺乏标记数据造成的精度难以提升的局面.另一方面,使用循环局部注意力学习,仅基于若干文档片段抽取出摘要特征,就足以支撑后续类别预测,提高模型的速度和精度.实验表明,本研究提出的伪文档生成模型确实能够增强训练数据,对预测精度的提升在弱监督情况下尤为显著;同时,基于局部注意力机制的长文档分类模型在预测精度上显著高于基准模型,处理速度也表现优异,具有实际应用价值. 展开更多
关键词 文档分类 深度学习 弱监督学习 伪文档 局部注意力机制
在线阅读 下载PDF
刘咸炘文献学贡献初探
7
作者 贾艳艳 《信阳师范学院学报(哲学社会科学版)》 2010年第4期149-152,共4页
刘咸炘是中国近代历史上蜀中一位著名的学者簧淘萑春懿┭В屑已В?通四部,著作等身。除了在史学上,他在文献学上也取得了较大的成就。他的文献学理论著作《目录学》是我国最早的文献学教材之一,内容丰富,体例独特。他也是... 刘咸炘是中国近代历史上蜀中一位著名的学者簧淘萑春懿┭В屑已В?通四部,著作等身。除了在史学上,他在文献学上也取得了较大的成就。他的文献学理论著作《目录学》是我国最早的文献学教材之一,内容丰富,体例独特。他也是民国时期较早对辑佚学做深入研究的学者之一,并撰有《辑佚书纠谬》一文。在辨伪学上,他反驳传统的辨伪方法,提出自己独特的真伪观。 展开更多
关键词 刘咸炘 文献学 目录 辑佚 辨伪
在线阅读 下载PDF
PSLDA:a novel supervised pseudo document-based topic model for short texts
8
作者 Mingtao SUN Xiaowei ZHAO +3 位作者 Jingjing LIN Jian JING Deqing WANG Guozhu JIA 《Frontiers of Computer Science》 SCIE EI CSCD 2022年第6期71-80,共10页
Various kinds of online social media applications such as Twitter and Weibo,have brought a huge volume of short texts.However,mining semantic topics from short texts efficiently is still a challenging problem because ... Various kinds of online social media applications such as Twitter and Weibo,have brought a huge volume of short texts.However,mining semantic topics from short texts efficiently is still a challenging problem because of the sparseness of word-occurrence and the diversity of topics.To address the above problems,we propose a novel supervised pseudo-document-based maximum entropy discrimination latent Dirichlet allocation model(PSLDA for short).Specifically,we first assume that short texts are generated from the normal size latent pseudo documents,and the topic distributions are sampled from the pseudo documents.In this way,the model will reduce the sparseness of word-occurrence and the diversity of topics because it implicitly aggregates short texts to longer and higher-level pseudo documents.To make full use of labeled information in training data,we introduce labels into the model,and further propose a supervised topic model to learn the reasonable distribution of topics.Extensive experiments demonstrate that our proposed method achieves better performance compared with some state-of-the-art methods. 展开更多
关键词 supervised topic model short text pseudo-document
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部