期刊文献+
共找到14篇文章
< 1 >
每页显示 20 50 100
BERT-WWM融合双通道语义特征的中文文本情感分析
1
作者 赵雪峰 狄恒西 +1 位作者 柏长泽 仲兆满 《南京师范大学学报(工程技术版)》 2025年第4期18-27,48,共11页
针对传统文本分类模型存在中文文本语义特征的提取能力有限等问题,提出一种BERT-WWM融合双通道语义特征的文本情感分析模型,学习更深层次的文本语义特征表示.首先采用BERT-WWM获取中文文本的动态特征向量表示并传入双通道卷积神经网络-... 针对传统文本分类模型存在中文文本语义特征的提取能力有限等问题,提出一种BERT-WWM融合双通道语义特征的文本情感分析模型,学习更深层次的文本语义特征表示.首先采用BERT-WWM获取中文文本的动态特征向量表示并传入双通道卷积神经网络-双向长短期记忆网络(CNN-BiSLTM)中进行特征提取,然后将BiLSTM通道提取文本的上下文特征向量经注意力(Attention)层动态权重调整后,与CNN通道提取的文本局部语义特征向量进行融合,以增强模型的文本特征提取能力.最后,将融合特征经过全连接层和Softmax函数得出文本的情感倾向.实验结果表明,相比传统的单通道模型和多通道混合模型,所提模型在准确率Acc和综合评价指标F1上分别提高了0.91%和1.40%,证明了该模型在中文文本情感分析任务中的有效性和可行性. 展开更多
关键词 文本情感分析 bert-wwm 双通道语义特征 卷积神经网络 双向长短期神经网络
在线阅读 下载PDF
融合BERT-WWM和指针网络的旅游知识图谱构建研究 被引量:11
2
作者 徐春 李胜楠 《计算机工程与应用》 CSCD 北大核心 2022年第12期280-288,共9页
针对旅游信息呈现出散乱、无序和关联性不强的问题,提出一种融合BERT-WWM(BERT with whole word masking)和指针网络的实体关系联合抽取模型构建旅游知识图谱。借助BERT-WWM预训练语言模型从爬取的旅游评论中获得含有先验语义知识的句... 针对旅游信息呈现出散乱、无序和关联性不强的问题,提出一种融合BERT-WWM(BERT with whole word masking)和指针网络的实体关系联合抽取模型构建旅游知识图谱。借助BERT-WWM预训练语言模型从爬取的旅游评论中获得含有先验语义知识的句子编码。针对传统的实体关系抽取方法存在错误传播、实体冗余、交互缺失等问题,以及旅游评论中的实体关系存在一词多义、关系重叠等特征,提出直接对三元组建模,利用句子编码抽取头实体,根据关系类别抽取尾实体,并建立级联结构和指针网络解码输出三元组。基于Neo4j图数据库存储三元组构建旅游知识图谱。实验在建立的旅游数据集上进行,融合BERT-WWM与指针网络的实体关系联合抽取模型的准确率、召回率和F1值分别为93.42%、86.59%和89.88%,与现有模型相比三项指标均显示出优越性,验证了该方法进行实体关系联合抽取的有效性。构建的旅游知识图谱实现了旅游景区信息的整合与存储,对进一步促进旅游业发展具有一定的实际参考意义。 展开更多
关键词 bert-wwm 指针网络 旅游知识图谱 关系重叠 实体关系联合抽取
在线阅读 下载PDF
基于领域知识蒸馏的旅游文本情感分类轻量模型
3
作者 李锦辉 刘继 闵兰 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第4期617-626,共10页
针对预训练模型参数多且推理时间长导致在真实旅游场景应用受限的问题,提出一种知识蒸馏和领域知识融合的文本情感分类轻量模型(lightweight model for knowledge distillation and domain knowledge fusion,KD-DKF)。构建了旅游领域词... 针对预训练模型参数多且推理时间长导致在真实旅游场景应用受限的问题,提出一种知识蒸馏和领域知识融合的文本情感分类轻量模型(lightweight model for knowledge distillation and domain knowledge fusion,KD-DKF)。构建了旅游领域词典;在BERT-WWM-EXT模型的基础上加入改进的词性因子向量和位置信息相似度矩阵得到融入领域信息的BERT-WWM-EXT模型(domain information BERT-WWM-EXT,DI-BERT-WWM-EXT);考虑旅游场景对高效且轻量模型的需求,结合知识蒸馏理论,选择DI-BERT-WWM-EXT作为教师模型指导双向长短期记忆网络进行蒸馏,完成KD-DKF的构建。实验结果表明,KD-DKF准确率可达85.79%,高于其他8个同类别轻量模型;总训练时间为152.43 s,参数量为9.62×106,在保持较高准确率的同时提高了分类效率。 展开更多
关键词 知识蒸馏 bert-wwm-EXT模型 双向长短期记忆网络 领域知识
在线阅读 下载PDF
基于多源异构信息的船舶碰撞事故防控知识图谱研究
4
作者 余红楚 郭正 +2 位作者 魏天明 许磊 方庆龙 《交通信息与安全》 北大核心 2025年第3期10-23,共14页
传统水上交通事故研究主要利用事故案例挖掘事故致因和事故间相互影响关系,在反映事故全过程和人-船-货-环-管-信等要素间相互作用方面存在不足。为此,以船舶碰撞事件为例,基于多源异构信息构建了水上交通事故领域船舶碰撞事故防控知识... 传统水上交通事故研究主要利用事故案例挖掘事故致因和事故间相互影响关系,在反映事故全过程和人-船-货-环-管-信等要素间相互作用方面存在不足。为此,以船舶碰撞事件为例,基于多源异构信息构建了水上交通事故领域船舶碰撞事故防控知识图谱。充分考虑“事件-时空行为-事件致因-事件后果-责任主体-处置决策”事故组成要素,提出了船舶碰撞事故知识标准化框架;构建了基于中文全词掩码预训练语言模型(Chinese-bert-wwm)的知识抽取模型;依托Neo4j数据库,构建了船舶碰撞事故防控知识图谱,图谱包括15种实体类型和39种关系类型,包含35784个实体和325097个关系。所提船舶碰撞事故防控知识图谱,在规模上显著优于现有水上交通领域的知识图谱,知识自动抽取的精度达到85%,明显高于隐马尔可夫模型(hidden Markov model,HMM)和条件随机场(conditional random field,CRF)等模型。其中,“船舶”“人员特征”“时间”“人员”和“法律法规”类实体上下文推理的F1值分别为95%、91%、89%、88%和88%,关系识别的F1值达到94%。以上结果表明:通过Chinese-bert-wwm模型提取船舶碰撞事故的语义特征,增强了知识抽取模型的泛化能力。本研究不仅可以支持对船舶碰撞事故知识表示、海事执法人员对事故的回溯及利用,也有助于提高水上交通系统的管理效能。 展开更多
关键词 水上交通安全 船舶碰撞事故 知识图谱 Chinese-bert-wwm
在线阅读 下载PDF
基于预训练模型与双向注意力流的抽取式阅读理解模型
5
作者 文勇军 吴金铭 梅硕 《首都师范大学学报(自然科学版)》 2025年第2期1-11,共11页
针对服务机器人的抽取式阅读理解任务中出现答案抽取准确度不高的问题,构建了基于预训练模型与双向注意力流的抽取式阅读理解模型。该模型首先采用预训练模型来提取问题与文档上下文的浅层联合语义表征;其次利用双向注意力网络来加强特... 针对服务机器人的抽取式阅读理解任务中出现答案抽取准确度不高的问题,构建了基于预训练模型与双向注意力流的抽取式阅读理解模型。该模型首先采用预训练模型来提取问题与文档上下文的浅层联合语义表征;其次利用双向注意力网络来加强特征交互和信息融合,得到问题与文档上下文的深层联合语义表征;最后结合浅层和深层的联合语义表征,通过排序、滤错和定位操作完成对答案的抽取。在抽取式问答任务的斯坦福英文机器阅读理解数据集SQuAD 1.1和“讯飞杯”中文机器阅读理解数据集CMRC 2018上进行了实验。结果表明:与英文预训练语言模型BERT相比,该模型的性能指标EM和F1值分别提高了1.172%和1.194%;与中文预训练语言模型RoBERTa-wwm-ext相比,该模型的EM和F1值分别提高了1.336%和0.921%。 展开更多
关键词 自然语言处理 机器阅读理解 预训练模型 双向注意力流(BERT) RoBERTa-wwm-ext 答案抽取
在线阅读 下载PDF
深度学习赋能网络安全知识图谱实体关系联合抽取研究 被引量:2
6
作者 王大阜 王静 +2 位作者 邓志文 贾志勇 张浴日 《中国电子科学研究院学报》 北大核心 2023年第5期420-428,共9页
文中研究了知识图谱中关于实体关系联合抽取方式,解决流水线抽取方式的误差传播、效率低下及关系重叠的问题,设计了网络安全本体模型,提出基于深度学习的Seq2Seq联合抽取模型,编码层通过BERT-WWM和双向长短期记忆网络(Bi-directional Lo... 文中研究了知识图谱中关于实体关系联合抽取方式,解决流水线抽取方式的误差传播、效率低下及关系重叠的问题,设计了网络安全本体模型,提出基于深度学习的Seq2Seq联合抽取模型,编码层通过BERT-WWM和双向长短期记忆网络(Bi-directional Long Short-Term Memory,BiLSTM)模型获取上下文语义表示,并融合多头注意力机制突显文本中的重要单词,解码层通过指针网络输出序列标注,从而获取头实体、关系及尾实体。以自标注的数据集为语料,通过TensorFlow框架建模,对实体和关系抽取的质量进行评估。结果表明,模型的精确率、召回率和F1值均较高,验证了联合抽取模型的有效性,最后通过Neo4j图数据库构建并可视化知识图谱。 展开更多
关键词 深度学习 联合抽取 bert-wwm BiLSTM 指针网络
在线阅读 下载PDF
基于权重计算的中文因果关系分析 被引量:6
7
作者 谭云 彭海阔 +1 位作者 秦姣华 薛有元 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第2期112-117,共6页
提出一种中文因果关系分析方法,以便更加细腻地表达因果关系.该方法由因果关系提取和权重计算组成.首先,构建了中文因果关系四元组数据集,将因果划分为核心名词和谓语状态,即原因中的核心名词、原因中的谓语或状态、结果中的核心名词、... 提出一种中文因果关系分析方法,以便更加细腻地表达因果关系.该方法由因果关系提取和权重计算组成.首先,构建了中文因果关系四元组数据集,将因果划分为核心名词和谓语状态,即原因中的核心名词、原因中的谓语或状态、结果中的核心名词、结果中的谓语和状态;然后,构建了中文因果关系抽取(CCE)模型,该模型由中文预训练的基于全词掩码训练的双向编码表示模型(BERT-wwm)和条件随机场(CRF)组成,在所构建的数据集上,四元组抽取F1分数为0.3;最后,提出基于因果强度的近似原因权重算法,用于计算同一结果不同原因的权重,减小对语料库数据量的依赖性,具有更好的鲁棒性和泛化性,能更加真实地反映不同原因对结果的重要程度. 展开更多
关键词 因果关系分析 序列标注 双向编码表示模型(bert-wwm) 条件随机场(CRF) 原因权重算法
原文传递
融合多教师模型的知识蒸馏文本分类 被引量:3
8
作者 苑婧 周杨 +3 位作者 胡校飞 孙姝娅 张呈龙 刘龙辉 《电子技术应用》 2023年第11期42-48,共7页
针对简单文本分类模型精度不高,预训练模型结构复杂,在实际环境中难以直接使用的问题,提出多教师知识蒸馏的文本分类方法。该模型使用“教师-学生网络”的训练方法,教师模型为BERT-wwm-ext和XLNet预训练模型,将两个模型输出的概率矩阵... 针对简单文本分类模型精度不高,预训练模型结构复杂,在实际环境中难以直接使用的问题,提出多教师知识蒸馏的文本分类方法。该模型使用“教师-学生网络”的训练方法,教师模型为BERT-wwm-ext和XLNet预训练模型,将两个模型输出的概率矩阵通过权重系数融合为软标签。学生模型为BiGRU-CNN网络,使用均方差函数计算软标签误差,使用交叉熵损失函数计算硬标签误差,通过硬标签和软标签训练学生模型使损失函数值达到最小。实验结果表明,提出的方法精度较学生模型有较大的改进,接近预训练模型,在保证分类精度的前提下减少了运行时间,提高了效率。 展开更多
关键词 文本分类 知识蒸馏 bert-wwm-ext XLNet BiGRU-CNN
在线阅读 下载PDF
基于BERT的医患对话实体阴阳性自动标注研究 被引量:2
9
作者 孙媛媛 申喜凤 +3 位作者 李美婷 南嘉乐 张维宁 高东平 《中国数字医学》 2022年第3期34-38,共5页
目的:为智能医疗的网络问诊设计一个前端任务模块,对互联网真实医患对话文本进行自动标注研究,探索识别对话实体阴阳性准确率较高的方法。方法:对医患对话真实文本特点进行分析,选取BERT及BERT-WWM对医患对话真实文本中的实体进行嵌入... 目的:为智能医疗的网络问诊设计一个前端任务模块,对互联网真实医患对话文本进行自动标注研究,探索识别对话实体阴阳性准确率较高的方法。方法:对医患对话真实文本特点进行分析,选取BERT及BERT-WWM对医患对话真实文本中的实体进行嵌入向量化,再通过语义信息获取,最终对实体属性进行分类和计算,自动标注其阴阳性。结果:实验结果表明BERT-WWM在处理中文对话的实体分类标注时优于BERT约16%。结论:优先选择全词掩码,以单元(Unit)来替代以字为单位的掩码对医学类实体进行分类和标注,可大大提高原模型的准确度。 展开更多
关键词 在线问诊 实体标注 BERT bert-wwm
在线阅读 下载PDF
基于中文医药文本的实体识别和图谱构建 被引量:2
10
作者 杨晔 裴雷 侯凤贞 《中国药科大学学报》 CAS CSCD 北大核心 2023年第3期363-371,共9页
知识图谱技术促进了新药研发的进展,但国内研究起点晚且领域知识多以文本形式存储,图谱重用率低。因此,本研究基于多源异构的医药文本,设计了以Bert-wwm-ext预训练模型为基础,并融合级联思想的中文命名实体识别模型,从而减少了传统单次... 知识图谱技术促进了新药研发的进展,但国内研究起点晚且领域知识多以文本形式存储,图谱重用率低。因此,本研究基于多源异构的医药文本,设计了以Bert-wwm-ext预训练模型为基础,并融合级联思想的中文命名实体识别模型,从而减少了传统单次分类的复杂度,进一步提高了文本识别的效率。实验结果显示,该模型在自建的训练语料上的F1分数达0.903,精确率达89.2%,召回率达91.5%。同时,将模型应用于公开数据集CCKS2019上,结果显示该模型能够更好地识别中文文本中的医疗实体。最后,利用此模型构建了一个中文医药知识图谱,图谱包含13530个实体,10939个属性,以及39247个相关关系。本研究所提出的中文医药实体识别与图谱构建方法,有望助力研究者加快医药知识新发现,从而缩短新药研发进程。 展开更多
关键词 中文医药文本 命名实体识别模型 bert-wwm-ext预训练模型 级联思想 知识图谱
在线阅读 下载PDF
基于代价敏感的中文文本的情感-原因对提取研究
11
作者 胡朝晖 潘伟民 +1 位作者 张海军 韩连金 《计算机与数字工程》 2022年第10期2229-2232,2258,共5页
情感-原因对提取在商业信息挖掘等领域有重要的应用。为了解决情感-原因对提取任务中数据集出现的标签不平衡问题,提出基于代价敏感的损失函数方法解决标签不平衡,同时,针对谷歌全词覆盖BERT的国外公开数据集缺乏中文语言的相关模型和... 情感-原因对提取在商业信息挖掘等领域有重要的应用。为了解决情感-原因对提取任务中数据集出现的标签不平衡问题,提出基于代价敏感的损失函数方法解决标签不平衡,同时,针对谷歌全词覆盖BERT的国外公开数据集缺乏中文语言的相关模型和忽略了中文分词的作用,该文采用哈工大讯飞联合发布中文BERT-wwm进行预训练。通过对比试验表明,在P、R、F1结果都有提升,尤其F1结果上有接近1%的提升,验证了该方法在情感-原因对提取研究上的有效性。 展开更多
关键词 情感-原因对提取 标签不平衡 代价敏感 bert-wwm
在线阅读 下载PDF
基于BERT_BiGRU边界预测的中文意见目标提取
12
作者 王丽亚 陈哲 《计算机时代》 2023年第5期94-98,共5页
提出一种基于中文BERT-wwm-ext嵌入的BIGRU网络模型。利用中文BERT-wwm-ext得到字向量,加强了模型对深层次语言表征的学习能力。将得到的字向量输入到BIGRU网络中,进一步学习上下文语义特征。将模型预测的边界分数向量利用解码算法转化... 提出一种基于中文BERT-wwm-ext嵌入的BIGRU网络模型。利用中文BERT-wwm-ext得到字向量,加强了模型对深层次语言表征的学习能力。将得到的字向量输入到BIGRU网络中,进一步学习上下文语义特征。将模型预测的边界分数向量利用解码算法转化成最终的答案。在多组数据集上做对比实验表明,所提模型能有效地提高中文意见目标提取的准确率。 展开更多
关键词 bert-wwm-ext BiGRU 边界预测 中文意见目标提取
在线阅读 下载PDF
弹幕文本情感分类模型研究--基于中文预训练模型与双向长短期记忆网络 被引量:5
13
作者 陈志刚 岳倩 赵威 《湖北工业大学学报》 2021年第6期56-61,共6页
针对弹幕文本的口语化、网络化、一词多义等特点,提出BERT-wwm-BiLSTM模型以提升情感分类准确率。该模型引入BERT-wwm预训练模型,得到有关上下文信息的动态词向量,采用BiLSTM对特征进行提取,最后使用softmax进行情感分类。在自建的bilib... 针对弹幕文本的口语化、网络化、一词多义等特点,提出BERT-wwm-BiLSTM模型以提升情感分类准确率。该模型引入BERT-wwm预训练模型,得到有关上下文信息的动态词向量,采用BiLSTM对特征进行提取,最后使用softmax进行情感分类。在自建的bilibili和腾讯视频两个弹幕数据集上进行实验,Acc、p、R、F_(1)值等4个指标均优于其他模型,且在一词多义弹幕文本中有突出表现,证明该模型在弹幕文本情感分类中的有效性。 展开更多
关键词 弹幕文本情感分类 中文预训练模型 双向长短时记忆网络
在线阅读 下载PDF
基于预训练语言模型和TRIZ发明原理的专利分类方法 被引量:1
14
作者 贾丽臻 白晓磊 《科学技术与工程》 北大核心 2024年第30期13055-13063,共9页
为充分挖掘专利文本中已有的解决方案和技术知识,依据发明问题解决理论(theory of inventive problem solving,TRIZ),提出了一种基于预训练语言模型的方法,将其用于面向TRIZ发明原理的中文专利分类研究中。基于整词掩码技术,使用不同数... 为充分挖掘专利文本中已有的解决方案和技术知识,依据发明问题解决理论(theory of inventive problem solving,TRIZ),提出了一种基于预训练语言模型的方法,将其用于面向TRIZ发明原理的中文专利分类研究中。基于整词掩码技术,使用不同数量的专利数据集(标题和摘要)对中文RoBERTa模型进一步预训练,生成特定于专利领域的RoBERTa_patent1.0和RoBERTa_patent2.0两个模型,并在此基础上添加全连接层,构建了基于RoBERTa、RoBERTa_patent1.0和RoBERTa_patent2.0的三个专利分类模型。然后使用构建的基于TRIZ发明原理的专利数据集对以上三个分类模型进行训练和测试。实验结果表明,RoBERTa_patent2.0_IP具有更高的准确率、宏查准率、宏查全率和宏F 1值,分别达到96%、95.69%、94%和94.84%,实现了基于TRIZ发明原理的中文专利文本自动分类,可以帮助设计者理解与应用TRIZ发明原理,实现产品的创新设计。 展开更多
关键词 预训练语言模型 RoBERTa 发明原理 整词掩码技术 文本分类
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部