期刊文献+
共找到25篇文章
< 1 2 >
每页显示 20 50 100
基于Bert+GCN多模态数据融合的药物分子属性预测 被引量:1
1
作者 闫效莺 靳艳春 +1 位作者 冯月华 张绍武 《生物化学与生物物理进展》 北大核心 2025年第3期783-794,共12页
目的药物研发成本高、周期长且成功率低。准确预测分子属性对有效筛选药物候选物、优化分子结构具有重要意义。基于特征工程的传统分子属性预测方法需研究人员具备深厚的学科背景和广泛的专业知识。随着人工智能技术的不断成熟,涌现出... 目的药物研发成本高、周期长且成功率低。准确预测分子属性对有效筛选药物候选物、优化分子结构具有重要意义。基于特征工程的传统分子属性预测方法需研究人员具备深厚的学科背景和广泛的专业知识。随着人工智能技术的不断成熟,涌现出大量优于传统特征工程方法的分子属性预测算法。然而这些算法模型仍然存在标记数据稀缺、泛化性能差等问题。鉴于此,本文提出一种基于Bert+GCN的多模态数据融合的分子属性预测算法(命名为BGMF),旨在整合药物分子的多模态数据,并充分利用大量无标记药物分子训练模型学习药物分子的有用信息。方法本文提出了BGMF算法,该算法根据药物SMILES表达式分别提取了原子序列、分子指纹序列和分子图数据,采用预训练模型Bert和图卷积神经网络GCN结合的方式进行特征学习,在挖掘药物分子中“单词”全局特征的同时,融合了分子图的局部拓扑特征,从而更充分利用分子全局-局部上下文语义关系,之后,通过对原子序列和分子指纹序列的双解码器设计加强分子特征表达。结果5个数据集共43个分子属性预测任务上,BGMF方法的AUC值均优于现有其他方法。此外,本文还构建独立测试数据集验证了模型具有良好的泛化性能。对生成的分子指纹表征(molecular fingerprint representation)进行t-SNE可视化分析,证明了BGMF模型可成功捕获不同分子指纹的内在结构与特征。结论通过图卷积神经网络与Bert模型相结合,BGMF将分子图数据整合到分子指纹恢复和掩蔽原子恢复的任务中,可以有效地捕捉分子指纹的内在结构和特征,进而高效预测药物分子属性。 展开更多
关键词 bert预训练 注意力机制 分子指纹 分子属性预测 图卷积神经网络
原文传递
基于BERT嵌入的中文命名实体识别方法 被引量:126
2
作者 杨飘 董文永 《计算机工程》 CAS CSCD 北大核心 2020年第4期40-45,52,共7页
在基于神经网络的中文命名实体识别过程中,字的向量化表示是重要步骤,而传统的词向量表示方法只是将字映射为单一向量,无法表征字的多义性.针对该问题,通过嵌入BERT预训练语言模型,构建BERT-BiGRU-CRF模型用于表征语句特征.利用具有双向... 在基于神经网络的中文命名实体识别过程中,字的向量化表示是重要步骤,而传统的词向量表示方法只是将字映射为单一向量,无法表征字的多义性.针对该问题,通过嵌入BERT预训练语言模型,构建BERT-BiGRU-CRF模型用于表征语句特征.利用具有双向Transformer结构的BERT预训练语言模型增强字的语义表示,根据其上下文动态生成语义向量.在此基础上,将字向量序列输入BiGRU-CRF模型中进行训练,包括训练整个模型和固定BERT只训练BiGRU-CRF2种方式.在MSRA语料上的实验结果表明,该模型2种训练方式的F1值分别达到95.43%和94.18%,优于BiGRU-CRF、Radical-BiLSTM-CRF和Lattice-LSTM-CRF模型. 展开更多
关键词 中文命名实体识别 bert模型 BiGRU模型 预训练语言模型 条件随机场
在线阅读 下载PDF
基于ChineseBert的中文拼写纠错方法 被引量:1
3
作者 崔凡 强继朋 +1 位作者 朱毅 李云 《南京大学学报(自然科学版)》 CAS CSCD 北大核心 2023年第2期302-312,共11页
中文拼写错误主要集中在拼音相似和字形相似两个方面,而通用的预训练语言模型只考虑文本的语义信息,忽略了中文的拼音和字形特征.最新的中文拼写纠错(Chinese Spelling Correction,CSC)方法在预训练模型的基础上利用额外的网络来融入拼... 中文拼写错误主要集中在拼音相似和字形相似两个方面,而通用的预训练语言模型只考虑文本的语义信息,忽略了中文的拼音和字形特征.最新的中文拼写纠错(Chinese Spelling Correction,CSC)方法在预训练模型的基础上利用额外的网络来融入拼音和字形特征,但和直接微调预训练模型相比,改进的模型没有显著提高模型的性能,因为由小规模拼写任务语料训练的拼音和字形特征,和预训练模型获取的丰富语义特征相比,存在严重的信息不对等现象.将多模态预训练语言模型ChineseBert应用到CSC问题上,由于ChineseBert已将拼音和字形信息放到预训练模型构建阶段,基于ChineseBert的CSC方法不仅无须构建额外的网络,还解决了信息不对等的问题.由于基于预训练模型的CSC方法普遍不能很好地处理连续错误的问题,进一步提出SepSpell方法.首先利用探测网络检测可能错误的字符,再对可能错误的字符保留拼音特征和字形特征,掩码对应的语义信息进行预测,这样能降低预测过程中错误字符带来的干扰,更好地处理连续错误问题.在三个官方评测数据集上进行评估,提出的两个方法都取得了非常不错的结果. 展开更多
关键词 中文拼写纠错 bert Chinesebert 多模态语言模型
在线阅读 下载PDF
基于BERT-LDA模型的短文本主题挖掘 被引量:3
4
作者 张震 汤鲲 邱秀连 《计算机与数字工程》 2023年第9期2098-2102,共5页
传统的主题模型在对短文本建模时,会由于词汇稀疏导致模型效果不好。论文针对短文本数据特征,提出了BERT-LDA主题挖掘模型(Short Text Topic Mining Based on BERT and LDA),该算法通过使用预训练BERT模型提取文本语义特征,再通过K-mean... 传统的主题模型在对短文本建模时,会由于词汇稀疏导致模型效果不好。论文针对短文本数据特征,提出了BERT-LDA主题挖掘模型(Short Text Topic Mining Based on BERT and LDA),该算法通过使用预训练BERT模型提取文本语义特征,再通过K-means聚类算法将短文本聚合成长文本再进行主题建模,从而扩充单条文本包含的语义特征,有效降低了词汇稀疏性,从而提升模型效果。通过在实际数据上进行对比实验证明,与LDA和BTM模型相比,该算法能够取得更低的困惑度。 展开更多
关键词 预训练模型 bert LDA 文本聚类 主题挖掘
在线阅读 下载PDF
基于ChineseBERT的中文知识图谱问答方法
5
作者 邓健志 方雨桐 杨燕 《科学技术与工程》 北大核心 2024年第23期9947-9956,共10页
为了解决中文文字字形繁杂和语义信息复杂导致问答性能不佳的问题,提出了一种名为ChineseBERT-KBQA的方法,利用中文预训练语言模型ChineseBERT作为文本的语义嵌入层且融合了字形和拼音信息,从而提升传统语义解析方法在实体提及识别和关... 为了解决中文文字字形繁杂和语义信息复杂导致问答性能不佳的问题,提出了一种名为ChineseBERT-KBQA的方法,利用中文预训练语言模型ChineseBERT作为文本的语义嵌入层且融合了字形和拼音信息,从而提升传统语义解析方法在实体提及识别和关系预测子任务上的性能。具体而言,提出的两个模型分别是基于ChineseBERT-CRF的实体提及识别模型和基于ChineseBERT-TextCNN-Softmax的关系预测模型,这两个模型综合提高了对中文文本的语义理解能力。最后,再结合子任务间的相关信息,进行最终的答案预测,并且使用教育问答数据集MOOC Q&A和开放域问答数据集NLPCC2018进行实验,实验结果表明该方法在中文知识图谱问答中的有效性和准确性。 展开更多
关键词 知识图谱 bert 智能问答 深度学习 预训练语言模型
在线阅读 下载PDF
基于RoBERTa和集中注意力机制的营商政策多标签分类
6
作者 陈昊飏 《计算机应用》 CSCD 北大核心 2024年第S01期44-48,共5页
为了满足营商政策多标签分类的社会需求,解决使用擅长文本分类、但输入受限的大语言预训练模型进行长文本分类的难题,提出一种基于RoBERTa模型和集中注意力机制的方法,更好地提取语义集中区域的信息表征,对营商政策文本进行有效的多标... 为了满足营商政策多标签分类的社会需求,解决使用擅长文本分类、但输入受限的大语言预训练模型进行长文本分类的难题,提出一种基于RoBERTa模型和集中注意力机制的方法,更好地提取语义集中区域的信息表征,对营商政策文本进行有效的多标签分类。首先,对数据清洗和分析后,得到一定的先验知识:营商政策文本的语义表征集中在文本标题与开篇部分。其次,在文本输入层和向量表示层中,构建集中注意力机制对文本和向量进行处理,增强模型在训练中对语义集中区域的注意力,提高模型信息表征提取能力,优化长文本分类的效果。实验中爬取政府公开的营商政策文本作为数据集,实验结果表明,营商政策长文本分类的准确率可达0.95,Micro-F1值可达0.91,同时对比实验结果显示,融合RoBERTa和集中注意力机制进行营商政策长文本多标签分类比其他模型效果更好。 展开更多
关键词 多标签分类 长文本 营商政策 Roberta 预训练模型 注意力机制
在线阅读 下载PDF
差异特征导向的解耦多模态情感分析
7
作者 李志欣 刘鸣琦 《广西师范大学学报(自然科学版)》 北大核心 2025年第3期57-71,共15页
特征解耦能够将不同模态特征解耦为相似特征和差异特征,以缓和模态间的贡献度差异。但由于差异特征不仅包含互补信息,同时也包含一致信息,因此差异特征存在显著分布差异。传统特征解耦方法忽视了差异特征内在的冲突,从而导致预测不准确... 特征解耦能够将不同模态特征解耦为相似特征和差异特征,以缓和模态间的贡献度差异。但由于差异特征不仅包含互补信息,同时也包含一致信息,因此差异特征存在显著分布差异。传统特征解耦方法忽视了差异特征内在的冲突,从而导致预测不准确。为了解决这一问题,本文提出一种差异特征导向的解耦多模态情感分析方法,利用特征表示学习和对比学习的思想,提取更为有效的特征并扩大差异特征间的差异。首先部署一个特征提取模块,针对3种模态使用不同的特征提取方法以提取到更为有效的特征;其次使用共同编码器与独立编码器解耦3种模态特征,并使用一个多模态变压器进行特征融合;最后,为了扩大差异特征间的差异,设计用于优化的损失函数。在2个大规模基准数据集上进行实验,并与多个当前先进方法进行比较,在绝大部分指标上都超越当前先进方法,验证了本文方法的有效性与鲁棒性。 展开更多
关键词 多模态情感分析 特征解耦 预训练bert 对比学习 表示学习
在线阅读 下载PDF
全球战略性矿产资源信息感知技术方法构建及模型研究 被引量:1
8
作者 肖飞 曾建鹰 +5 位作者 李政 陈从喜 郭文华 张玉韩 朱力维 仇巍巍 《中国矿业》 北大核心 2025年第2期48-56,2,共10页
收集和分析全球战略性矿产资源信息情报对于建立战略性矿产监测预警机制至关重要。得益于互联网的飞速发展,各国政府、矿业企业和研究机构等通过互联网公开发布了海量的矿产资源信息,但这些信息具备鲜明的大数据特征,使得感知分析面临... 收集和分析全球战略性矿产资源信息情报对于建立战略性矿产监测预警机制至关重要。得益于互联网的飞速发展,各国政府、矿业企业和研究机构等通过互联网公开发布了海量的矿产资源信息,但这些信息具备鲜明的大数据特征,使得感知分析面临巨大挑战。本文研究了面向矿产资源信息感知的大数据技术方法和信息感知模型,构建了“采集—处理—存储”一体化的全球战略性矿产资源信息感知大数据技术框架,解决了全球战略性矿产资源信息实时监测和分析的数据采集和信息提取问题;面向全球战略性矿产资源全生命周期重要信息节点,针对性地提出了实体识别、关系抽取、事件抽取和文本分类四项全球战略性矿产资源信息感知任务,构建了万条规模的矿产资源信息感知数据集,建立了基于BERT的全球战略性矿产资源信息感知模型,解决了非结构化矿产资源信息语义内容的结构化提取问题。实验表明,模型在各项感知任务的精准率和召回率指标均达到0.75以上,且各项任务预测的平均值达到0.80以上,证明模型具有较强的泛化能力,能够有效理解矿产资源领域专业术语要素,精准捕捉要素关联关系,具有较高的实用价值。本文提出了一套自动化的全球战略性矿产资源信息感知技术方法和模型,可为全球战略性矿产资源安全预警提供信息感知技术支撑。 展开更多
关键词 战略性矿产资源 信息感知 大数据 感知模型 预训练 bert模型
在线阅读 下载PDF
基于话题博文的食品安全网络舆情评论文本多情感分析
9
作者 吕星辰 林伟君 黄红星 《计算机应用》 北大核心 2025年第12期3786-3795,共10页
为了解决食品安全网络舆情中评论文本情感复杂多样,且依赖讨论的话题和博文信息的问题,提出一种融合话题博文的评论文本多情感分析模型TBR-MSAM(Topic Blog Review-Multi-Sentiment Analysis Model)。首先,使用RoBERTa(Robustly optimiz... 为了解决食品安全网络舆情中评论文本情感复杂多样,且依赖讨论的话题和博文信息的问题,提出一种融合话题博文的评论文本多情感分析模型TBR-MSAM(Topic Blog Review-Multi-Sentiment Analysis Model)。首先,使用RoBERTa(Robustly optimized BERT(Bidirectional Encoder Representations from Transformers)pretraining approach)和深度学习模型构建话题博文评论特征提取(TBR-FE)模块分别对话题、博文和评论信息进行上下文特征提取;其次,构建话题博文评论的交互注意力特征融合(TBR-IAFF)模块对话题-评论和博文-评论进行两两交互以获得交互特征,并进行权重的合理分配,从而挖掘话题、博文和评论之间的复杂关系;接着,构建话题博文评论的交叉特征融合(TBR-CFF)模块对多个信息进行深层次特征融合,从而挖掘用户潜在的情感特征;最后,通过Softmax对食品安全网络舆情中评论文本的4种情感极性进行分类。在所构建的3个食品安全网络舆情数据集上的实验结果表明,相较于无话题和博文信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升了5.0和5.8个百分点;相较于融合话题和博文信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升0.2和1.1个百分点;相较于同时带有话题、博文和评论文本信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升了11.7和10.0个百分点,验证了TBR-MSAM在食品安全网络舆情的多情感分类任务中的有效性。 展开更多
关键词 食品安全网络舆情 多情感分析 Roberta 交互注意力网络 注意力机制 特征融合
在线阅读 下载PDF
结构特征一致性约束的双语平行句对抽取 被引量:2
10
作者 毛存礼 高旭 +3 位作者 余正涛 王振晗 高盛祥 满志博 《重庆大学学报》 EI CAS CSCD 北大核心 2021年第1期46-56,共11页
平行句对抽取是解决低资源神经机器翻译平行语料不足的有效途径。基于孪生神经网络的平行句对抽取方法的核心是通过跨语言语义相似度判断2个句子是否平行,在相似的语言对上取得了非常显著的效果。然而针对英语东南亚语言双语句对抽取任... 平行句对抽取是解决低资源神经机器翻译平行语料不足的有效途径。基于孪生神经网络的平行句对抽取方法的核心是通过跨语言语义相似度判断2个句子是否平行,在相似的语言对上取得了非常显著的效果。然而针对英语东南亚语言双语句对抽取任务,面临语言空间和句子长度存在较大差异,仅考虑跨语言语义相似度而忽略句子长度特征会导致模型对仅有语义包含关系但不平行句对的误判。笔者提出一种结构特征一致性约束的双语平行句对抽取方法,该方法是对基于孪生神经网络的双语平行句对抽取模型的扩展,首先通过多语言BERT预训练语言模型在嵌入层将两种语言编码到同一语义空间,以此缩小语义空间中语言的差异。其次分别对两种语言句子的长度特征进行编码,与孪生网络编码后的句子语义向量进行融合,增强平行句对在语义及结构特征上的表示,降低模型对语义相似但不平行句对的误判。在英缅双语数据集上进行实验,结果表明提出的方法相比基线模型准确率提高了4.64%,召回率提高了2.52%,F 1值提高了3.51%。 展开更多
关键词 双语平行句对 低资源语言 bert预训练 孪生网络 结构
在线阅读 下载PDF
基于句级别GAN的跨语言零资源命名实体识别模型 被引量:2
11
作者 张小艳 段正宇 《计算机应用》 CSCD 北大核心 2023年第8期2406-2411,共6页
针对低资源语言缺少标签数据,而无法使用现有成熟的深度学习方法进行命名实体识别(NER)的问题,提出基于句级别对抗生成网络(GAN)的跨语言NER模型——SLGAN-XLM-R(Sentence Level GAN Based on XLM-R)。首先,使用源语言的标签数据在预训... 针对低资源语言缺少标签数据,而无法使用现有成熟的深度学习方法进行命名实体识别(NER)的问题,提出基于句级别对抗生成网络(GAN)的跨语言NER模型——SLGAN-XLM-R(Sentence Level GAN Based on XLM-R)。首先,使用源语言的标签数据在预训练模型XLM-R (XLM-Robustly optimized BERT pretraining approach)的基础上训练NER模型;同时,结合目标语言的无标签数据对XLM-R模型的嵌入层进行语言对抗训练;然后,使用NER模型来预测目标语言无标签数据的软标签;最后,混合源语言与目标语言的标签数据,以对模型进行二次微调来得到最终的NER模型。在CoNLL2002和CoNLL2003两个数据集的英语、德语、西班牙语、荷兰语四种语言上的实验结果表明,以英语作为源语言时,SLGAN-XLM-R模型在德语、西班牙语、荷兰语测试集上的F1值分别为72.70%、79.42%、80.03%,相较于直接在XLM-R模型上进行微调分别提升了5.38、5.38、3.05个百分点。 展开更多
关键词 跨语言 命名实体识别 XLM-R 语言对抗训练 预训练模型
在线阅读 下载PDF
Classification of Conversational Sentences Using an Ensemble Pre-Trained Language Model with the Fine-Tuned Parameter
12
作者 R.Sujatha K.Nimala 《Computers, Materials & Continua》 SCIE EI 2024年第2期1669-1686,共18页
Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requir... Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requires more syntactic elements.Most existing strategies focus on the general semantics of a conversation without involving the context of the sentence,recognizing the progress and comparing impacts.An ensemble pre-trained language model was taken up here to classify the conversation sentences from the conversation corpus.The conversational sentences are classified into four categories:information,question,directive,and commission.These classification label sequences are for analyzing the conversation progress and predicting the pecking order of the conversation.Ensemble of Bidirectional Encoder for Representation of Transformer(BERT),Robustly Optimized BERT pretraining Approach(RoBERTa),Generative Pre-Trained Transformer(GPT),DistilBERT and Generalized Autoregressive Pretraining for Language Understanding(XLNet)models are trained on conversation corpus with hyperparameters.Hyperparameter tuning approach is carried out for better performance on sentence classification.This Ensemble of Pre-trained Language Models with a Hyperparameter Tuning(EPLM-HT)system is trained on an annotated conversation dataset.The proposed approach outperformed compared to the base BERT,GPT,DistilBERT and XLNet transformer models.The proposed ensemble model with the fine-tuned parameters achieved an F1_score of 0.88. 展开更多
关键词 Bidirectional encoder for representation of transformer conversation ensemble model fine-tuning generalized autoregressive pretraining for language understanding generative pre-trained transformer hyperparameter tuning natural language processing robustly optimized bert pretraining approach sentence classification transformer models
在线阅读 下载PDF
基于双特征嵌套注意力的方面词情感分析算法 被引量:7
13
作者 肖宇晗 林慧苹 +1 位作者 汪权彬 谭营 《智能系统学报》 CSCD 北大核心 2021年第1期142-151,共10页
针对目前方面词情感分析方法忽视了以方面词为核心的局部特征的重要性,并难以有效减小情感干扰项的负面噪声的问题,本文提出了一种带有基于变换器的双向编码器表示技术(bi-directional encoder representations from transformers,BERT... 针对目前方面词情感分析方法忽视了以方面词为核心的局部特征的重要性,并难以有效减小情感干扰项的负面噪声的问题,本文提出了一种带有基于变换器的双向编码器表示技术(bi-directional encoder representations from transformers,BERT)加持的双特征嵌套注意力模型(dual features attention-over-attention with BERT,DFAOA-BERT),首次将AOA(attention-over-attention)与BERT预训练模型结合,并设计了全局与局部特征提取器,能够充分捕捉方面词和语境的有效语义关联。实验结果表明:DFAOA-BERT在SemEval 2014任务4中的餐馆评论、笔记本评论和ACL-14 Twitter社交评论这3个公开数据集上均表现优异,而子模块的有效性实验,也充分证明了DFAOA-BERT各个部分的设计合理性。 展开更多
关键词 情感分析 方面词 嵌套注意力 bert预训练模型 全局特征 局部特征 深度学习 机器学习
在线阅读 下载PDF
基于不同模型的中文命名实体识别方法研究 被引量:2
14
作者 宫义山 段亚奇 《长江信息通信》 2021年第1期84-86,共3页
目的:比较条件随机场、长短期记忆模型、BiLSTM-CRF和使用Bert预训练字符向量的BiLSTM-CRF四种命名实体识别模型。方法:分析比较四种模型在人民日报数据集和MSRA数据集上对人名、地点和机构三类实体的识别性能。结果:单一神经网络LSTM... 目的:比较条件随机场、长短期记忆模型、BiLSTM-CRF和使用Bert预训练字符向量的BiLSTM-CRF四种命名实体识别模型。方法:分析比较四种模型在人民日报数据集和MSRA数据集上对人名、地点和机构三类实体的识别性能。结果:单一神经网络LSTM在缺乏训练数据支持的结果表现不如CRF,而使用了Bert预训练字符向量的神经网络即使使用较少的训练数据仍能获得较其他模型更好的结果,在人民日报数据集和MSRA数据集上的F值均达到0.9。结论:单一神经网络模型在缺乏训练数据时有较大局限性,使用Bert预训练字符向量的神经网络模型在中文命名实体识别任务中存在较大优势。 展开更多
关键词 命名实体识别 CRF LSTM bert 预训练字符向量
在线阅读 下载PDF
基于预训练的两段式自动文本摘要研究 被引量:1
15
作者 李智强 朱明 +1 位作者 徐劲松 郭世杰 《湖北大学学报(自然科学版)》 CAS 2024年第4期540-549,共10页
主要通过从源文中抽取重要语句组成摘要,该方式会存在词语冗余、可读性差的不足;生成式摘要则尝试通过创造新的词语来构建摘要,可能会引发语义不连贯和逻辑性差的挑战。针对以上两种方式存在的问题,提出一种基于预训练的两阶段式的自动... 主要通过从源文中抽取重要语句组成摘要,该方式会存在词语冗余、可读性差的不足;生成式摘要则尝试通过创造新的词语来构建摘要,可能会引发语义不连贯和逻辑性差的挑战。针对以上两种方式存在的问题,提出一种基于预训练的两阶段式的自动文本摘要模型。该模型融合抽取式和生成式的方法,首先,模型通过预训练模型BERT获取文本向量,再通过抽取式图结构中所蕴含的关系显示指导摘要生成,然后将抽取的输出当作生成模型的输入,同时结合指针网络和覆盖机制解决训练过程中的未登录词(OOV)问题和重复生成问题。通过整合上述步骤,最终获得的摘要在CNN/Daily Mail数据集上展现出良好的效果,在ROUGE-1、ROUGE-2和ROUGE-L这三个指标上均有显著提升。 展开更多
关键词 抽取式摘要 生成式摘要 混合式摘要 bert预训练模型
在线阅读 下载PDF
基于对span的预判断和多轮分类的实体关系抽取 被引量:1
16
作者 佟缘 姚念民 《计算机工程与科学》 CSCD 北大核心 2024年第5期916-928,共13页
针对自然语言处理领域中的实体识别和关系抽取任务,提出一种对词元序列(Token Sequence,又称span)进行预测的模型Smrc。模型整体上利用BERT预训练模型作为编码器,另外包含实体预判断(Pej)、实体多轮分类(Emr)和关系多轮分类(Rmr)3个模块... 针对自然语言处理领域中的实体识别和关系抽取任务,提出一种对词元序列(Token Sequence,又称span)进行预测的模型Smrc。模型整体上利用BERT预训练模型作为编码器,另外包含实体预判断(Pej)、实体多轮分类(Emr)和关系多轮分类(Rmr)3个模块。Smrc模型通过Pej模块的初步判断及Emr模块的多轮实体分类来进行实体识别,再利用Rmr模块的多轮关系分类来判断实体对间的关系,进而完成关系抽取任务。在CoNLL04、SciERC和ADE 3个实验数据集上,Smrc模型的实体识别F1值分别达到89.67%,70.62%和89.56%,关系抽取F1值分别达到73.11%,51.03%和79.89%,相较之前在3个数据集上的最佳模型Spert,Smrc模型凭借实体预判断和实体及关系多轮分类,在2个子任务上其F1值分别提高了0.73%,0.29%,0.61%及1.64%,0.19%,1.05%,表明了该模型的有效性及其优势。 展开更多
关键词 对span的预判断 实体关系抽取 bert预训练模型 多轮实体分类 多轮关系分类
在线阅读 下载PDF
基于栈式预训练模型的中文序列标注 被引量:5
17
作者 刘宇鹏 李国栋 《哈尔滨理工大学学报》 CAS 北大核心 2022年第1期8-13,共6页
序列标注(sequence labelling)是自然语言处理(natural language processing)中的一类重要任务。在文中,根据任务的相关性,使用栈式预训练模型进行特征提取,分词,命名实体识别/语块标注。并且通过对BERT内部框架的深入研究,在保证原有... 序列标注(sequence labelling)是自然语言处理(natural language processing)中的一类重要任务。在文中,根据任务的相关性,使用栈式预训练模型进行特征提取,分词,命名实体识别/语块标注。并且通过对BERT内部框架的深入研究,在保证原有模型的准确率下进行优化,降低了BERT模型的复杂度,减少了模型在训练和预测过程中的时间成本。上层结构上,相比于传统的长短期记忆络(LSTM),采用的是双层双向LSTM结构,底层使用双向长短期记忆网络(Bi-LSTM)用来分词,顶层用来实现序列标注任务。在新式半马尔可夫条件随机场(new semi-conditional random field,NSCRF)上,将传统的半马尔可夫条件随机场(Semi-CRF)和条件随机场(CRF)相结合,同时考虑分词和单词的标签,在训练和解码上提高了准确率。将模型在CCKS2019、MSRANER和BosonNLP数据集上进行训练并取得了很大的提升,F1测度分别达到了92.37%、95.69%和93.75%。 展开更多
关键词 基于bert的栈式模型 预训练模型 命名实体识别 语块分析
在线阅读 下载PDF
基于预训练模型与标签融合的文本分类 被引量:4
18
作者 余杭 周艳玲 +1 位作者 翟梦鑫 刘涵 《计算机应用》 CSCD 北大核心 2024年第3期709-714,共6页
对海量的用户文本评论数据进行准确分类具有重要的经济效益和社会效益。目前大部分文本分类方法是将文本编码直接使用于各式的分类器之前,而忽略了标签文本中蕴含的提示信息。针对以上问题,提出一种基于RoBERTa(Robustly optimized BERT... 对海量的用户文本评论数据进行准确分类具有重要的经济效益和社会效益。目前大部分文本分类方法是将文本编码直接使用于各式的分类器之前,而忽略了标签文本中蕴含的提示信息。针对以上问题,提出一种基于RoBERTa(Robustly optimized BERT pretraining approach)的文本和标签信息融合分类模型(TLIFC-RoBERTa)。首先,利用RoBERTa预训练模型获得词向量;然后,利用孪生网络结构分别训练文本和标签向量,通过交互注意力将标签信息映射到文本上,达到将标签信息融入模型的效果;最后,设置自适应融合层将文本表示与标签表示紧密融合进行分类。在今日头条和THUCNews数据集上的实验结果表明,相较于将Labelatt(Label-based attention improved model)中使用的静态词向量改为RoBERTa-wwm训练后的词向量算法(RA-Labelatt)、RoBERTa结合基于标签嵌入的多尺度卷积初始化文本分类算法(LEMC-RoBERTa)等主流深度学习模型,TLIFC-RoBERTa的精度最高,对于用户评论数据集有最优的分类效果。 展开更多
关键词 文本分类 预训练模型 交互注意力 标签嵌入 Roberta
在线阅读 下载PDF
双关系预测与特征融合的实体关系抽取模型 被引量:1
19
作者 沈健 夏鸿斌 刘渊 《智能系统学报》 CSCD 北大核心 2024年第2期462-471,共10页
现有分阶段解码的实体关系抽取模型仍存在着阶段间特征融合不充分的问题,会增大曝光偏差对抽取性能的影响。为此,提出一种双关系预测和特征融合的实体关系抽取模型(entity relation extraction model with dual relation prediction and... 现有分阶段解码的实体关系抽取模型仍存在着阶段间特征融合不充分的问题,会增大曝光偏差对抽取性能的影响。为此,提出一种双关系预测和特征融合的实体关系抽取模型(entity relation extraction model with dual relation prediction and feature fusion,DRPFF),该模型使用预训练的基于Transformer的双向编码表示模型(bidirectional encoder representation from transformers,BERT)对文本进行编码,并设计两阶段的双关系预测结构来减少抽取过程中错误三元组的生成。在阶段间通过门控线性单元(gated linear unit,GLU)和条件层规范化(conditional layer normalization,CLN)组合的结构来更好地融合实体之间的特征。在NYT和WebNLG这2个公开数据集上的试验结果表明,该模型相较于基线方法取得了更好的效果。 展开更多
关键词 实体关系抽取 关系三元组 预训练模型 双关系预测 指针网络 特征融合 门控线性单元 条件层规范化
在线阅读 下载PDF
基于语境与文本结构融合的中文拼写纠错方法 被引量:1
20
作者 刘昌春 张凯 +2 位作者 包美凯 刘烨 刘淇 《南京大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第3期451-463,共13页
在中文拼写纠错任务的处理中往往存在对句子的语义理解不够且对于汉字的语音和视觉信息利用较少的问题,针对这一问题,提出一种基于语境置信度和汉字相似度的纠错方法(ECS).该方法基于深度学习的理论,融合汉字的视觉相似度、汉字的语音... 在中文拼写纠错任务的处理中往往存在对句子的语义理解不够且对于汉字的语音和视觉信息利用较少的问题,针对这一问题,提出一种基于语境置信度和汉字相似度的纠错方法(ECS).该方法基于深度学习的理论,融合汉字的视觉相似度、汉字的语音相似度以及微调过的预训练BERT模型,能自动提取句子语义并利用汉字的相似性.具体地,通过对预训练的中文BERT模型进行微调,使之能适应下游的中文拼写纠错任务;同时,利用表意文字描述序列获取汉字的树形结构作为视觉信息,采用汉字的拼音序列作为语音信息;最后,利用编辑距离得出汉字的视觉和语音相似度,并将这些相似度数据与微调过的BERT模型融合,以实现纠错任务.在SIGHAN标准数据集上的测试结果显示,和基准模型相比,提出的ECS方法其F1-score提升巨大,在检错层面上提升2.1%,在纠错层面上提升2.8%,也验证了将汉字的语境信息、视觉信息与语音信息融合用于中文拼写纠错任务的适用性. 展开更多
关键词 中文拼写纠错 bert 汉字语音相似度 汉字视觉相似度 预训练模型
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部