期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于RoBERTa和集中注意力机制的营商政策多标签分类
1
作者 陈昊飏 《计算机应用》 CSCD 北大核心 2024年第S01期44-48,共5页
为了满足营商政策多标签分类的社会需求,解决使用擅长文本分类、但输入受限的大语言预训练模型进行长文本分类的难题,提出一种基于RoBERTa模型和集中注意力机制的方法,更好地提取语义集中区域的信息表征,对营商政策文本进行有效的多标... 为了满足营商政策多标签分类的社会需求,解决使用擅长文本分类、但输入受限的大语言预训练模型进行长文本分类的难题,提出一种基于RoBERTa模型和集中注意力机制的方法,更好地提取语义集中区域的信息表征,对营商政策文本进行有效的多标签分类。首先,对数据清洗和分析后,得到一定的先验知识:营商政策文本的语义表征集中在文本标题与开篇部分。其次,在文本输入层和向量表示层中,构建集中注意力机制对文本和向量进行处理,增强模型在训练中对语义集中区域的注意力,提高模型信息表征提取能力,优化长文本分类的效果。实验中爬取政府公开的营商政策文本作为数据集,实验结果表明,营商政策长文本分类的准确率可达0.95,Micro-F1值可达0.91,同时对比实验结果显示,融合RoBERTa和集中注意力机制进行营商政策长文本多标签分类比其他模型效果更好。 展开更多
关键词 多标签分类 长文本 营商政策 Roberta 预训练模型 注意力机制
在线阅读 下载PDF
基于话题博文的食品安全网络舆情评论文本多情感分析
2
作者 吕星辰 林伟君 黄红星 《计算机应用》 北大核心 2025年第12期3786-3795,共10页
为了解决食品安全网络舆情中评论文本情感复杂多样,且依赖讨论的话题和博文信息的问题,提出一种融合话题博文的评论文本多情感分析模型TBR-MSAM(Topic Blog Review-Multi-Sentiment Analysis Model)。首先,使用RoBERTa(Robustly optimiz... 为了解决食品安全网络舆情中评论文本情感复杂多样,且依赖讨论的话题和博文信息的问题,提出一种融合话题博文的评论文本多情感分析模型TBR-MSAM(Topic Blog Review-Multi-Sentiment Analysis Model)。首先,使用RoBERTa(Robustly optimized BERT(Bidirectional Encoder Representations from Transformers)pretraining approach)和深度学习模型构建话题博文评论特征提取(TBR-FE)模块分别对话题、博文和评论信息进行上下文特征提取;其次,构建话题博文评论的交互注意力特征融合(TBR-IAFF)模块对话题-评论和博文-评论进行两两交互以获得交互特征,并进行权重的合理分配,从而挖掘话题、博文和评论之间的复杂关系;接着,构建话题博文评论的交叉特征融合(TBR-CFF)模块对多个信息进行深层次特征融合,从而挖掘用户潜在的情感特征;最后,通过Softmax对食品安全网络舆情中评论文本的4种情感极性进行分类。在所构建的3个食品安全网络舆情数据集上的实验结果表明,相较于无话题和博文信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升了5.0和5.8个百分点;相较于融合话题和博文信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升0.2和1.1个百分点;相较于同时带有话题、博文和评论文本信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升了11.7和10.0个百分点,验证了TBR-MSAM在食品安全网络舆情的多情感分类任务中的有效性。 展开更多
关键词 食品安全网络舆情 多情感分析 Roberta 交互注意力网络 注意力机制 特征融合
在线阅读 下载PDF
基于句级别GAN的跨语言零资源命名实体识别模型 被引量:2
3
作者 张小艳 段正宇 《计算机应用》 CSCD 北大核心 2023年第8期2406-2411,共6页
针对低资源语言缺少标签数据,而无法使用现有成熟的深度学习方法进行命名实体识别(NER)的问题,提出基于句级别对抗生成网络(GAN)的跨语言NER模型——SLGAN-XLM-R(Sentence Level GAN Based on XLM-R)。首先,使用源语言的标签数据在预训... 针对低资源语言缺少标签数据,而无法使用现有成熟的深度学习方法进行命名实体识别(NER)的问题,提出基于句级别对抗生成网络(GAN)的跨语言NER模型——SLGAN-XLM-R(Sentence Level GAN Based on XLM-R)。首先,使用源语言的标签数据在预训练模型XLM-R (XLM-Robustly optimized BERT pretraining approach)的基础上训练NER模型;同时,结合目标语言的无标签数据对XLM-R模型的嵌入层进行语言对抗训练;然后,使用NER模型来预测目标语言无标签数据的软标签;最后,混合源语言与目标语言的标签数据,以对模型进行二次微调来得到最终的NER模型。在CoNLL2002和CoNLL2003两个数据集的英语、德语、西班牙语、荷兰语四种语言上的实验结果表明,以英语作为源语言时,SLGAN-XLM-R模型在德语、西班牙语、荷兰语测试集上的F1值分别为72.70%、79.42%、80.03%,相较于直接在XLM-R模型上进行微调分别提升了5.38、5.38、3.05个百分点。 展开更多
关键词 跨语言 命名实体识别 xlm-r 语言对抗训练 预训练模型
在线阅读 下载PDF
基于预训练模型与标签融合的文本分类 被引量:4
4
作者 余杭 周艳玲 +1 位作者 翟梦鑫 刘涵 《计算机应用》 CSCD 北大核心 2024年第3期709-714,共6页
对海量的用户文本评论数据进行准确分类具有重要的经济效益和社会效益。目前大部分文本分类方法是将文本编码直接使用于各式的分类器之前,而忽略了标签文本中蕴含的提示信息。针对以上问题,提出一种基于RoBERTa(Robustly optimized BERT... 对海量的用户文本评论数据进行准确分类具有重要的经济效益和社会效益。目前大部分文本分类方法是将文本编码直接使用于各式的分类器之前,而忽略了标签文本中蕴含的提示信息。针对以上问题,提出一种基于RoBERTa(Robustly optimized BERT pretraining approach)的文本和标签信息融合分类模型(TLIFC-RoBERTa)。首先,利用RoBERTa预训练模型获得词向量;然后,利用孪生网络结构分别训练文本和标签向量,通过交互注意力将标签信息映射到文本上,达到将标签信息融入模型的效果;最后,设置自适应融合层将文本表示与标签表示紧密融合进行分类。在今日头条和THUCNews数据集上的实验结果表明,相较于将Labelatt(Label-based attention improved model)中使用的静态词向量改为RoBERTa-wwm训练后的词向量算法(RA-Labelatt)、RoBERTa结合基于标签嵌入的多尺度卷积初始化文本分类算法(LEMC-RoBERTa)等主流深度学习模型,TLIFC-RoBERTa的精度最高,对于用户评论数据集有最优的分类效果。 展开更多
关键词 文本分类 预训练模型 交互注意力 标签嵌入 Roberta
在线阅读 下载PDF
Classification of Conversational Sentences Using an Ensemble Pre-Trained Language Model with the Fine-Tuned Parameter
5
作者 R.Sujatha K.Nimala 《Computers, Materials & Continua》 SCIE EI 2024年第2期1669-1686,共18页
Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requir... Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requires more syntactic elements.Most existing strategies focus on the general semantics of a conversation without involving the context of the sentence,recognizing the progress and comparing impacts.An ensemble pre-trained language model was taken up here to classify the conversation sentences from the conversation corpus.The conversational sentences are classified into four categories:information,question,directive,and commission.These classification label sequences are for analyzing the conversation progress and predicting the pecking order of the conversation.Ensemble of Bidirectional Encoder for Representation of Transformer(BERT),Robustly Optimized BERT pretraining Approach(RoBERTa),Generative Pre-Trained Transformer(GPT),DistilBERT and Generalized Autoregressive Pretraining for Language Understanding(XLNet)models are trained on conversation corpus with hyperparameters.Hyperparameter tuning approach is carried out for better performance on sentence classification.This Ensemble of Pre-trained Language Models with a Hyperparameter Tuning(EPLM-HT)system is trained on an annotated conversation dataset.The proposed approach outperformed compared to the base BERT,GPT,DistilBERT and XLNet transformer models.The proposed ensemble model with the fine-tuned parameters achieved an F1_score of 0.88. 展开更多
关键词 Bidirectional encoder for representation of transformer conversation ensemble model fine-tuning generalized autoregressive pretraining for language understanding generative pre-trained transformer hyperparameter tuning natural language processing robustly optimized bert pretraining approach sentence classification transformer models
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部