期刊文献+
共找到486篇文章
< 1 2 25 >
每页显示 20 50 100
Optimizing Airline Review Sentiment Analysis:A Comparative Analysis of LLaMA and BERT Models through Fine-Tuning and Few-Shot Learning
1
作者 Konstantinos I.Roumeliotis Nikolaos D.Tselikas Dimitrios K.Nasiopoulos 《Computers, Materials & Continua》 2025年第2期2769-2792,共24页
In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance o... In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance of two advanced models,the Large Language Model(LLM)LLaMA model and NLP BERT model,in the context of airline review sentiment analysis.Through fine-tuning,domain adaptation,and the application of few-shot learning,the study addresses the subtleties of sentiment expressions in airline-related text data.Employing predictive modeling and comparative analysis,the research evaluates the effectiveness of Large Language Model Meta AI(LLaMA)and Bidirectional Encoder Representations from Transformers(BERT)in capturing sentiment intricacies.Fine-tuning,including domain adaptation,enhances the models'performance in sentiment classification tasks.Additionally,the study explores the potential of few-shot learning to improve model generalization using minimal annotated data for targeted sentiment analysis.By conducting experiments on a diverse airline review dataset,the research quantifies the impact of fine-tuning,domain adaptation,and few-shot learning on model performance,providing valuable insights for industries aiming to predict recommendations and enhance customer satisfaction through a deeper understanding of sentiment in user-generated content(UGC).This research contributes to refining sentiment analysis models,ultimately fostering improved customer satisfaction in the airline industry. 展开更多
关键词 Sentiment classification review sentiment analysis user-generated content domain adaptation customer satisfaction LLaMA model bert model airline reviews LLM classification fine-tuning
在线阅读 下载PDF
Ontology-Based BERT Model for Automated Information Extraction from Geological Hazard Reports 被引量:4
2
作者 Kai Ma Miao Tian +3 位作者 Yongjian Tan Qinjun Qiu Zhong Xie Rong Huang 《Journal of Earth Science》 SCIE CAS CSCD 2023年第5期1390-1405,共16页
Geological knowledge can provide support for knowledge discovery, knowledge inference and mineralization predictions of geological big data. Entity identification and relationship extraction from geological data descr... Geological knowledge can provide support for knowledge discovery, knowledge inference and mineralization predictions of geological big data. Entity identification and relationship extraction from geological data description text are the key links for constructing knowledge graphs. Given the lack of publicly annotated datasets in the geology domain, this paper illustrates the construction process of geological entity datasets, defines the types of entities and interconceptual relationships by using the geological entity concept system, and completes the construction of the geological corpus. To address the shortcomings of existing language models(such as Word2vec and Glove) that cannot solve polysemous words and have a poor ability to fuse contexts, we propose a geological named entity recognition and relationship extraction model jointly with Bidirectional Encoder Representation from Transformers(BERT) pretrained language model. To effectively represent the text features, we construct a BERT-bidirectional gated recurrent unit network(BiGRU)-conditional random field(CRF)-based architecture to extract the named entities and the BERT-BiGRU-Attention-based architecture to extract the entity relations. The results show that the F1-score of the BERT-BiGRU-CRF named entity recognition model is 0.91 and the F1-score of the BERT-BiGRU-Attention relationship extraction model is 0.84, which are significant performance improvements when compared to classic language models(e.g., word2vec and Embedding from Language Models(ELMo)). 展开更多
关键词 ONTOLOGY bert model name entity recognition relation extraction knowledge graph
原文传递
Classification of Acupuncture Points Based on the Bert Model*
3
作者 Xi Zhong Yangli Jia +1 位作者 Dekui Li Xiangliang Zhang 《Journal of Data Analysis and Information Processing》 2021年第3期123-135,共13页
In this paper, we explore the multi-classification problem of acupuncture acupoints bas</span><span><span style="font-family:Verdana;">ed on </span><span style="font-family:Ve... In this paper, we explore the multi-classification problem of acupuncture acupoints bas</span><span><span style="font-family:Verdana;">ed on </span><span style="font-family:Verdana;">Bert</span><span style="font-family:Verdana;"> model, </span><i><span style="font-family:Verdana;">i.e.</span></i><span style="font-family:Verdana;">, we try to recommend the best main acupuncture point for treating the disease by classifying and predicting the main acupuncture point for the disease, and further explore its acupuncture point grouping to provide the medical practitioner with the optimal solution for treating the disease and improv</span></span></span><span style="font-family:Verdana;">ing</span><span style="font-family:""><span style="font-family:Verdana;"> the clinical decision-making ability. The Bert-Chinese-Acupoint model was constructed by retraining </span><span style="font-family:Verdana;">on the basis of</span><span style="font-family:Verdana;"> the Bert model, and the semantic features in terms of acupuncture points were added to the acupunctu</span></span><span style="font-family:""><span style="font-family:Verdana;">re point corpus in the fine-tuning process to increase the semantic features in terms of acupuncture </span><span style="font-family:Verdana;">points,</span><span style="font-family:Verdana;"> and compared with the machine learning method. The results show that the Bert-Chinese Acupoint model proposed in this paper has a 3% improvement in accuracy compared to the </span><span style="font-family:Verdana;">best performing</span><span style="font-family:Verdana;"> model in the machine learning approach. 展开更多
关键词 bert model Machine Learning Classification model Comparison
暂未订购
基金经理语调、基金收益与投资者行为——基于BERT人工智能模型的检验 被引量:1
4
作者 沈红波 洪康隆 王锴 《现代金融研究》 北大核心 2025年第4期20-38,共19页
本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传... 本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传统的词袋法,BERT人工智能模型度量的基金经理语调更能识别基金经理的真情实感,对基金未来收益、顺境中的基金业绩持续性及逆境中的基金崩盘风险的预测效果更好,且上述识别优势在复杂度较高、可读性较差的“展望”文本中更显著;(2)个人投资者的“有限理性”特征和公募基金存在的委托代理问题导致个人投资者更容易被基金经理“词藻堆砌”的文本所吸引,进而导致投资收益率降低。本文将BERT人工智能模型引入财经文本情感分析,为文本语调的度量方法提供了新思路。 展开更多
关键词 基金经理语调 基金收益 投资者行为 bert模型
在线阅读 下载PDF
基于BERT和图注意力网络的医疗文本因果关系抽取算法
5
作者 刘位龙 王玎 +6 位作者 赵超 王宁 张旭 苏萍 宋书典 张娜 迟蔚蔚 《山东大学学报(医学版)》 北大核心 2025年第8期61-68,共8页
目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention network... 目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention networks,CGAT)的BERT-CGAT算法。首先构建因果关系图,利用医疗文本对BERT模型进行微调,以获得优化的实体嵌入表示;随后通过知识融合通道整合文本编码信息与因果结构,输入至图注意力网络;采用多头注意力机制并行处理不同子空间信息,增强复杂语义关系捕捉能力;最后通过双通道解码层实现实体及因果关系的同步抽取。结果在自建的糖尿病因果实体数据集上的实验表明,模型在准确率(99.74%)与召回率(81.04%)上较传统BiLSTM-CRF基线提升0.65%和16.73%,F1分数达80.83%。结论BERT-CGAT算法通过结合BERT的语义特征提取能力和图神经网络的关系建模优势,有效提升了医疗文本因果关系抽取的准确性,验证了该方法的有效性。 展开更多
关键词 医疗文本 bert模型 图注意力网络 因果关系抽取
原文传递
基于BERT并融合法律事件信息的罪名预测方法
6
作者 邱一卉 喻瑶瑶 《厦门大学学报(自然科学版)》 北大核心 2025年第4期642-652,共11页
[目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事... [目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事件信息的罪名预测模型,通过利用法律事件信息为模型提供更多的法律案件特征,提升模型对案件的理解,从而提升罪名预测的表现.[方法]首先训练了一个全局上层事件类型信息增强的法律事件检测模型,利用其对案情描述中的法律事件类型进行检测,并在此基础上构建法律事件类型序列.其次,利用双向长短期记忆模型(BiLSTM)对法律事件类型序列进行编码获取法律事件信息,并将法律事件信息与经过BERT编码后的案情描述的语义表示拼接融合,最后利用一层全连接层对罪名进行预测.[结果]在公开的刑事案件数据集CAIL2018-small上的实验结果表明,相比于领域内的其他基线模型,本文提出的模型在各个关键指标上具备更好的性能,即在Mac.F_(1)上平均提升3.12个百分点,在Mac.P上平均提升1.94个百分点,在Mac.R上平均提升3.53个百分点.[结论]验证了法律事件信息在增强模型对案件理解方面的有效性,从而提高罪名预测的准确性. 展开更多
关键词 AI&Law bert模型 罪名预测 法律事件信息
在线阅读 下载PDF
基于BERT和知识图谱的武器装备问答系统
7
作者 王博 蒋序平 黄启鸿 《指挥控制与仿真》 2025年第3期99-103,共5页
武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命... 武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命名实体生成查询语句,通过答句模板生成问题答案。分析测试结果表明,该系统能够有效地将正确答案排在前列,且在准确性和全面性之间达到了较好的平衡,但仍有一定的改进空间。 展开更多
关键词 知识图谱 bert模型 武器装备
在线阅读 下载PDF
基于自注意力机制的BERT文本情感分析模型
8
作者 朱珍元 苏喻 《海南师范大学学报(自然科学版)》 2025年第3期281-288,共8页
在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情... 在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情感分析模型:BERTBLSTM-Attention。该模型通过综合利用BERT的预训练能力、BLSTM和自注意力机制,增强对文本情感的理解和分析。首先,BERT模型被用于将输入的文本数据表示为高维特征向量。BERT作为一种强大的预训练模型,能够捕捉到丰富的语义信息和上下文特征,为后续的模型提供基础输入。在这一阶段,BERT的双向编码能力使模型可以从上下文中提取出更多细腻的语义信息,这对于情感分析至关重要。然后,在BLSTM层之后引入多头自注意力机制。自注意力机制的加入,使得模型可以在处理输入序列时,更加关注文本中重要的部分,通过动态分配权重来强化这些关键特征的作用。最后,模型在输出层使用SoftMax函数进行文本情感分类。在这一阶段,基于收集到的特征,模型能够生成每种情感类别的概率分布,为情感分类提供输出。在进行有效分类的同时,模型也展示了出色的泛化能力。实验发现,引入自注意力机制的BLSTM模型的准确率比未引入自注意力机制的BLSTM模型高1.8%,比未使用BERT模型的准确率高0.9%,充分说明了本文模型在语言特征提取方面的有效性。 展开更多
关键词 bert模型 文本情感分析 自注意力机制
在线阅读 下载PDF
Enhancing Multi-Class Cyberbullying Classification with Hybrid Feature Extraction and Transformer-Based Models
9
作者 Suliman Mohamed Fati Mohammed A.Mahdi +4 位作者 Mohamed A.G.Hazber Shahanawaj Ahamad Sawsan A.Saad Mohammed Gamal Ragab Mohammed Al-Shalabi 《Computer Modeling in Engineering & Sciences》 2025年第5期2109-2131,共23页
Cyberbullying on social media poses significant psychological risks,yet most detection systems over-simplify the task by focusing on binary classification,ignoring nuanced categories like passive-aggressive remarks or... Cyberbullying on social media poses significant psychological risks,yet most detection systems over-simplify the task by focusing on binary classification,ignoring nuanced categories like passive-aggressive remarks or indirect slurs.To address this gap,we propose a hybrid framework combining Term Frequency-Inverse Document Frequency(TF-IDF),word-to-vector(Word2Vec),and Bidirectional Encoder Representations from Transformers(BERT)based models for multi-class cyberbullying detection.Our approach integrates TF-IDF for lexical specificity and Word2Vec for semantic relationships,fused with BERT’s contextual embeddings to capture syntactic and semantic complexities.We evaluate the framework on a publicly available dataset of 47,000 annotated social media posts across five cyberbullying categories:age,ethnicity,gender,religion,and indirect aggression.Among BERT variants tested,BERT Base Un-Cased achieved the highest performance with 93%accuracy(standard deviation across±1%5-fold cross-validation)and an average AUC of 0.96,outperforming standalone TF-IDF(78%)and Word2Vec(82%)models.Notably,it achieved near-perfect AUC scores(0.99)for age and ethnicity-based bullying.A comparative analysis with state-of-the-art benchmarks,including Generative Pre-trained Transformer 2(GPT-2)and Text-to-Text Transfer Transformer(T5)models highlights BERT’s superiority in handling ambiguous language.This work advances cyberbullying detection by demonstrating how hybrid feature extraction and transformer models improve multi-class classification,offering a scalable solution for moderating nuanced harmful content. 展开更多
关键词 Cyberbullying classification multi-class classification bert models machine learning TF-IDF Word2Vec social media analysis transformer models
在线阅读 下载PDF
面向中文小样本命名实体识别的BERT优化方法 被引量:1
10
作者 杨三和 赖沛超 +3 位作者 傅仰耿 王一蕾 叶飞扬 张林 《小型微型计算机系统》 北大核心 2025年第3期602-611,共10页
为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于... 为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于提示学习与对比学习的BERT预训练策略.在提示学习阶段,设计掩码填充模板来训练BERT预测出每个标记对应的中文标签词.在对比学习阶段,利用引导模板训练BERT学习每个标记和标签词之间的相似性与差异性.其次,针对中文缺乏明确的词边界所带来的复杂性和挑战性,修改BERT模型的第一层Transformer结构,并设计了一种带有混合权重引导器的特征融合模块,将词典信息集成到BERT底层中.最后,实验结果验证了所提方法在中文小样本NER任务中的有效性与优越性.该方法结合BERT和条件随机场(CRF)结构,在4个采样的中文NER数据集上取得了最好的性能.特别是在Weibo数据集的3个小样本场景下,模型的F 1值分别达到了63.78%、66.27%、70.90%,与其他方法相比,平均F 1值分别提高了16.28%、14.30%、11.20%.此外,将ProConBERT应用到多个基于BERT的中文NER模型中能进一步提升实体识别的性能. 展开更多
关键词 中文小样本命名实体识别 提示学习 对比学习 预训练 特征融合 bert模型
在线阅读 下载PDF
基于融合评价指标BERT-RGCN的油田评价区块调整措施推荐方法
11
作者 王梅 朱晓丽 +2 位作者 孙洪国 王海艳 濮御 《东北石油大学学报》 北大核心 2025年第5期110-120,I0008,共12页
为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价... 为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价区块及措施之间的交互信息构建异构图,利用BERT模型生成评价指标、评价区块及措施术语词向量,共同作为输入词向量,将融合评价指标信息的异构图和输入词向量放入RGCN模型训练,学习评价区块的有效表征;在某油田评价区块提供的数据集上进行实验对比。结果表明:EI-BERT-RGCN方法能够捕捉文本中隐含的复杂语义并缓解数据稀疏问题,能更好理解未观察到的评价指标与调整措施之间的潜在关系,提升节点的表示质量。EI-BERT-RGCN模型在精确率、召回率、F_(1)分数及ROC曲线下面积等评价指标上优于其他基准模型,在保持较高精确率的同时,展现更好的泛化能力和鲁棒性。该结果为油田评价区块调整措施推荐提供参考。 展开更多
关键词 异构图 变换器双向编码(bert) 预训练模型 关系图卷积神经网络(RGCN) 推荐算法 措施推荐 油田评价区块
在线阅读 下载PDF
基于BERT的多特征融合中文命名实体识别 被引量:2
12
作者 孙璐冰 康怡琳 +1 位作者 王俊 朱容波 《中南民族大学学报(自然科学版)》 CAS 2025年第1期68-74,共7页
针对中文命名实体识别往往需要引入外部知识获取深层语义信息,以及基于RNN结构的模型对空间特征提取效果不佳等问题,提出了基于BERT的多特征融合中文命名实体识别模型.通过BERT模型获取输入文本序列的深层次语义信息,利用MHSA模块和IDCN... 针对中文命名实体识别往往需要引入外部知识获取深层语义信息,以及基于RNN结构的模型对空间特征提取效果不佳等问题,提出了基于BERT的多特征融合中文命名实体识别模型.通过BERT模型获取输入文本序列的深层次语义信息,利用MHSA模块和IDCNN模块增强特征提取能力.前者利用相对位置编码和多头自注意力机制来捕获输入序列的隐藏特征,使模型能够考虑到字符间的距离方向信息;后者则可以对空间特征建模,获得输入序列的全局信息.通过将两个模块的输出特征进行连接,增强模型性能.实验结果表明:模型在MSRA、Resume和Weibo三个公共数据集上的F1值分别达到了95.12%、95.45%和66.14%,优于其它最新模型,验证了模型在中文命名实体识别上的有效性. 展开更多
关键词 自然语言处理 中文命名实体识别 bert模型 迭代膨胀卷积神经网络 自注意力
在线阅读 下载PDF
一种融合BERT和注意力机制的新闻文本分类方法
13
作者 熊亿坤 付雪峰 +2 位作者 盛黄煜 胡昊 汪涛涛 《江西师范大学学报(自然科学版)》 北大核心 2025年第1期49-57,共9页
文本分类任务是在自然语言处理中的一项重要任务,旨在将给定的文本分配到预定义的不同类别或标签中.针对近年来备受关注的注意力机制和一种基于Transformer结构的预训练模型BERT,该文提出一种基于BERT-TextRCNN-Attention混合神经网络... 文本分类任务是在自然语言处理中的一项重要任务,旨在将给定的文本分配到预定义的不同类别或标签中.针对近年来备受关注的注意力机制和一种基于Transformer结构的预训练模型BERT,该文提出一种基于BERT-TextRCNN-Attention混合神经网络的新闻文本分类方法.为了增强文本的特征表示和模型的分类效果,该分类方法首先使用BERT预训练模型对文本进行预训练,并作为TextRCNN的词向量嵌入,其次采用TextRCNN模型和注意力机制进一步对文本的上下文特征和局部关键特征进行提取,再对新闻文本进行分类;最后在THUCNews数据集上进行对比实验.实验结果表明:该文提出方法在准确率和F_(1)值上比Transformer、TextRNN、TextCNN、DPCNN等文本分类模型均有所提升. 展开更多
关键词 bert模型 基于卷积神经网络的文本分类模型 注意力机制 新闻文本分类
在线阅读 下载PDF
基于全局语义信息的GR-BERT模型 被引量:1
14
作者 王煜华 胡俊英 +2 位作者 孙凯 常培菊 费蓉蓉 《工程数学学报》 北大核心 2025年第4期751-762,共12页
关系抽取是提取实体间关系的一项重要的自然语言处理任务。最近的研究发现,预训练BERT模型在自然语言处理任务中取得了非常好的效果。此后,诞生了大量使用预训练BERT模型处理关系抽取任务的方法,其中具有代表性的是R-BERT方法。但是,该... 关系抽取是提取实体间关系的一项重要的自然语言处理任务。最近的研究发现,预训练BERT模型在自然语言处理任务中取得了非常好的效果。此后,诞生了大量使用预训练BERT模型处理关系抽取任务的方法,其中具有代表性的是R-BERT方法。但是,该方法在实现时未考虑主语实体与宾语实体在语义上的差异,以及全局语义信息对关系抽取任务准确性的影响。通过设置两个不同的全连接层来分别提取主语实体和宾语实体的信息,从而将主语实体与宾语实体在语义上的差异引入模型的学习过程中。此外,还在原有的信息融合模块后面添加了一层带有激活函数的新全连接层来将高维全局语义信息与实体对充分融合。将融合了语义差异与全局语义信息的R-BERT简称为GR-BERT。通过在中文人物关系抽取数据集上进行实验,结果表明新提出的GR-BERT的效果较原始R-BERT取得了显著提升,从而验证了新方法GR-BERT的有效性。 展开更多
关键词 bert模型 自然语言处理 关系抽取 神经网络
在线阅读 下载PDF
融合BERT与X-means算法的微博舆情热度分析预测模型
15
作者 蒋章涛 李欣 +1 位作者 张士豪 赵心阳 《计算机应用》 北大核心 2025年第10期3138-3145,共8页
在微博等社交媒体的舆情发现和预测中,网络水军制造的“假热点”会影响分析准确性。为真实反映微博舆情热度,提出一种融合BERT(Bidirectional Encoder Representations from Transformers)和X-means算法的微博舆情热度分析预测模型BXpre... 在微博等社交媒体的舆情发现和预测中,网络水军制造的“假热点”会影响分析准确性。为真实反映微博舆情热度,提出一种融合BERT(Bidirectional Encoder Representations from Transformers)和X-means算法的微博舆情热度分析预测模型BXpre,旨在融合微博参与用户的属性特征与热度变化的时域特征,以提高热度预测的准确性。首先,对微博原文和互动用户的数据进行预处理,利用微调后的StructBERT模型对这些数据分类,从而确定参与互动的用户与微博原文的关联度,作为用户对该微博热度增长的贡献度权重计算的参考值;其次,使用X-means算法,以互动用户的特征为依据进行聚类,基于所得聚集态的同质性特征过滤水军,并引入针对水军样本的权重惩罚机制,结合标签关联度,进一步构建微博热度指标模型;最后,通过计算先验热度值随时间变化的二阶导数与真实数据的余弦相似度预测未来微博热度变化。实验结果表明,BXpre在不同用户量级下输出的微博舆情热度排序结果更贴近真实数据,在混合量级测试条件下,BXpre的预测相关性指标达到了90.88%,相较于基于长短期记忆(LSTM)网络、极限梯度提升(XGBoost)算法和时序差值排序(TDR)的3种传统方法,分别提升了12.71、14.80和11.30个百分点;相较于ChatGPT和文心一言,分别提升了9.76和11.95个百分点。 展开更多
关键词 微博舆情热度分析预测 bert模型 X-means算法 水军识别 社交网络分析
在线阅读 下载PDF
基于BERT融合算法的病例文本结构化模型研究
16
作者 张雪 王琛琛 职宁 《中国医疗设备》 2025年第9期12-19,共8页
目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长... 目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长短时记忆网络建立时序关系,并引入条件随机场优化标签序列的一致性。实验选用MIMIC-Ⅲ和ClinicalSTS这2个权威临床数据集进行分析,构建五类医学文本分类任务,对比所有模型在不同结构组合下的性能表现。结果本研究所提出的病例文本结构化模型的精准度、召回率和F1得分分别为0.92、0.90和0.91,均较传统双向编码器模型提升约10%;在处理超过1000字的长文本场景时,模型效率提升达12%,表现出良好的时效性与可扩展性。结论本研究通过验证深度融合多种结构对提高病例文本结构化处理能力的有效性,为智能医学文本分析提供了理论依据。 展开更多
关键词 病例文本 长短时记忆网络 bert 图卷积神经网络 结构化模型 医学智能化
在线阅读 下载PDF
基于BERT模型的主设备缺陷诊断方法研究 被引量:3
17
作者 杨虹 孟晓凯 +3 位作者 俞华 白洋 韩钰 刘永鑫 《电力系统保护与控制》 北大核心 2025年第7期155-164,共10页
主设备缺陷诊断旨在及时定位处理电网的异常情况,是电力系统平稳运行的基础。传统方法以人工为主,存在效率低下、诊断成本高、依赖专家经验等问题。为了弥补这些不足,提出了一种基于BERT语言模型的主设备缺陷诊断方法。首先,使用BERT初... 主设备缺陷诊断旨在及时定位处理电网的异常情况,是电力系统平稳运行的基础。传统方法以人工为主,存在效率低下、诊断成本高、依赖专家经验等问题。为了弥补这些不足,提出了一种基于BERT语言模型的主设备缺陷诊断方法。首先,使用BERT初步理解输入,获取嵌入表示,结合缺陷等级分类任务判断故障的危急程度。然后,利用大语言模型汇总输入信息和评判结果,并通过大语言模型提示学习提高知识问答过程的准确性与推理可靠性,返回正确有效的回答。最后,探究了大语言模型在电力领域的应用潜力。实验结果表明,所提方法在缺陷等级分类任务和问答任务上都表现良好,可以生成高质量的分类证据和指导信息。 展开更多
关键词 缺陷诊断 大语言模型 bert 提示学习 分类模型
在线阅读 下载PDF
基于关键词扩展与Prompt-BERT-RCNN模型的医疗问答社区短文本分类
18
作者 臧志栋 汤祖懿 +1 位作者 秦振凯 程结晶 《情报科学》 北大核心 2025年第6期148-155,163,共9页
【目的/意义】在医疗问答社区中实现短文本的自动分类对于提高其服务效率和改善用户体验至关重要。通过构建一个结合关键词扩展技术和深度学习模型的短文本分类方法,以解决短文本分类中的特征稀疏和语义不明确问题。【方法/过程】首先... 【目的/意义】在医疗问答社区中实现短文本的自动分类对于提高其服务效率和改善用户体验至关重要。通过构建一个结合关键词扩展技术和深度学习模型的短文本分类方法,以解决短文本分类中的特征稀疏和语义不明确问题。【方法/过程】首先运用网络爬虫获取医疗问答社区“寻医问药网”的用户问题短文本;然后利用TF-IWF加权关键词重要性,并通过FastText计算关键词相似度来扩展短文本特征;接着将提示学习与深度学习模型融合,构建Prompt-BERT-RCNN模型,实现医疗短文本的有效分类。【结果/结论】实证研究表明,关键词扩展后的分类效果显著高于扩展前,且Prompt-BERT-RCNN模型对扩展后的医疗短文本的分类准确率高达97.92%,并在9个不同医疗类别中均表现优异。【创新/局限】TF-IWF与FastText的短文本扩展方法弥补了Word2vec未考虑关键词稀有度和子词上下文信息方面的缺陷,Prompt-BERT-RCNN模型通过融合Prompt的引导、BERT的深层语义理解以及RCNN的区域感知和特征提取能力进一步提升了短文本的分类准确率;但模型在个别主题的准确率仍有待提升。 展开更多
关键词 医疗问答社区 关键词扩展 短文本分类 bert-RCNN模型 提示学习
原文传递
基于BERT-Tiny Transformer-CRF的自动化装配命名实体识别方法
19
作者 钱冠翔 于丽娅 +2 位作者 李传江 李少波 徐兆 《计算机集成制造系统》 北大核心 2025年第10期3594-3606,共13页
随着工业5.0对知识驱动的智能制造提出新要求,机械装配领域面临多模态数据稀疏、实体语义边界模糊、数据分布呈现长尾效应的挑战。为此,提出一种融合多项式损失函数的BERT-Tiny Transformer-CRF模型,旨在提升低资源场景下的领域知识抽... 随着工业5.0对知识驱动的智能制造提出新要求,机械装配领域面临多模态数据稀疏、实体语义边界模糊、数据分布呈现长尾效应的挑战。为此,提出一种融合多项式损失函数的BERT-Tiny Transformer-CRF模型,旨在提升低资源场景下的领域知识抽取效率。首先,通过知识蒸馏与语义增强技术注入领域先验知识,其次设计维度自适应特征压缩模块实现跨模态特征融合,最后构建动态边缘感知解码机制实现实体边界的精准定位。利用自主构建的自动化装配数据集,将所提方法与不同实体识别模型进行对比,实验结果表明,所提模型具有良好的泛化识别能力,以86.62%的准确率、85.27%的精确率、85.67%的召回率和85.46%的F1值优于其他模型,为工业5.0下机械自动化装配领域知识图谱的构建提供了一种有效的技术方法。 展开更多
关键词 bert-Tiny Transformer-CRF模型 数据增强 PolyLoss 自动化装配
在线阅读 下载PDF
上一页 1 2 25 下一页 到第
使用帮助 返回顶部