期刊文献+
共找到225篇文章
< 1 2 12 >
每页显示 20 50 100
Traditional Chinese Medicine Synonymous Term Conversion:A Bidirectional Encoder Representations from Transformers-Based Model for Converting Synonymous Terms in Traditional Chinese Medicine
1
作者 Lu Zhou Chao-Yong Wu +10 位作者 Xi-Ting Wang Shuang-Qiao Liu Yi-Zhuo Zhang Yue-Meng Sun Jian Cui Cai-Yan Li Hui-Min Yuan Yan Sun Feng-Jie Zheng Feng-Qin Xu Yu-Hang Li 《World Journal of Traditional Chinese Medicine》 CAS CSCD 2023年第2期224-233,共10页
Background:The medical records of traditional Chinese medicine(TCM)contain numerous synonymous terms with different descriptions,which is not conducive to computer-aided data mining of TCM.However,there is a lack of m... Background:The medical records of traditional Chinese medicine(TCM)contain numerous synonymous terms with different descriptions,which is not conducive to computer-aided data mining of TCM.However,there is a lack of models available to normalize synonymous TCM terms.Therefore,construction of a synonymous term conversion(STC)model for normalizing synonymous TCM terms is necessary.Methods:Based on the neural networks of bidirectional encoder representations from transformers(BERT),four types of TCM STC models were designed:Models based on BERT and text classification,text sequence generation,named entity recognition,and text matching.The superior STC model was selected on the basis of its performance in converting synonymous terms.Moreover,three misjudgment inspection methods for the conversion results of the STC model based on inconsistency were proposed to find incorrect term conversion:Neuron random deactivation,output comparison of multiple isomorphic models,and output comparison of multiple heterogeneous models(OCMH).Results:The classification-based STC model outperformed the other STC task models.It achieved F1 scores of 0.91,0.91,and 0.83 for performing symptoms,patterns,and treatments STC tasks,respectively.The OCMH method showed the best performance in misjudgment inspection,with wrong detection rates of 0.80,0.84,and 0.90 in the term conversion results for symptoms,patterns,and treatments,respectively.Conclusion:The TCM STC model based on classification achieved superior performance in converting synonymous terms for symptoms,patterns,and treatments.The misjudgment inspection method based on OCMH showed superior performance in identifying incorrect outputs. 展开更多
关键词 bidirectional encoder representations from transformers misjudgment inspection synonymous term conversion traditional Chinesem edicine
原文传递
Text Augmentation-Based Model for Emotion Recognition Using Transformers
2
作者 Fida Mohammad Mukhtaj Khan +4 位作者 Safdar Nawaz Khan Marwat Naveed Jan Neelam Gohar Muhammad Bilal Amal Al-Rasheed 《Computers, Materials & Continua》 SCIE EI 2023年第9期3523-3547,共25页
Emotion Recognition in Conversations(ERC)is fundamental in creating emotionally intelligentmachines.Graph-BasedNetwork(GBN)models have gained popularity in detecting conversational contexts for ERC tasks.However,their... Emotion Recognition in Conversations(ERC)is fundamental in creating emotionally intelligentmachines.Graph-BasedNetwork(GBN)models have gained popularity in detecting conversational contexts for ERC tasks.However,their limited ability to collect and acquire contextual information hinders their effectiveness.We propose a Text Augmentation-based computational model for recognizing emotions using transformers(TA-MERT)to address this.The proposed model uses the Multimodal Emotion Lines Dataset(MELD),which ensures a balanced representation for recognizing human emotions.Themodel used text augmentation techniques to producemore training data,improving the proposed model’s accuracy.Transformer encoders train the deep neural network(DNN)model,especially Bidirectional Encoder(BE)representations that capture both forward and backward contextual information.This integration improves the accuracy and robustness of the proposed model.Furthermore,we present a method for balancing the training dataset by creating enhanced samples from the original dataset.By balancing the dataset across all emotion categories,we can lessen the adverse effects of data imbalance on the accuracy of the proposed model.Experimental results on the MELD dataset show that TA-MERT outperforms earlier methods,achieving a weighted F1 score of 62.60%and an accuracy of 64.36%.Overall,the proposed TA-MERT model solves the GBN models’weaknesses in obtaining contextual data for ERC.TA-MERT model recognizes human emotions more accurately by employing text augmentation and transformer-based encoding.The balanced dataset and the additional training samples also enhance its resilience.These findings highlight the significance of transformer-based approaches for special emotion recognition in conversations. 展开更多
关键词 Emotion recognition in conversation graph-based network text augmentation-basedmodel multimodal emotion lines dataset bidirectional encoder representation for transformer
在线阅读 下载PDF
基于多特征融合的修船结算编码智能匹配复合模型
3
作者 朱安庆 朱碧玉 +1 位作者 姚飚 李同兰 《造船技术》 2026年第1期23-30,共8页
在一些修船企业建立的修船结算系统和电子价格库中,人工匹配结算编码步骤易出错且耗时长,直接影响结算效率。为解决该问题,提出一种基于多特征融合的修船结算编码智能匹配复合模型。采用来自变换器的双向编码器表示(Bidirectional Encod... 在一些修船企业建立的修船结算系统和电子价格库中,人工匹配结算编码步骤易出错且耗时长,直接影响结算效率。为解决该问题,提出一种基于多特征融合的修船结算编码智能匹配复合模型。采用来自变换器的双向编码器表示(Bidirectional Encoder Representations from Transformers,BERT)模型将工程内容文本表示为词向量,采用卷积神经网络(Convolutional Neural Network,CNN)模型提取文本的局部特征,采用双向长短期记忆网络结合注意力机制(Bidirectional Long Short-Term Memory with Attention Mechanism,BiLSTM-Attention)模型提取上下文特征,得到对应的结算编码。试验结果表明,所提出的复合模型在整体准确率方面实现显著提升,充分证明该复合模型在处理复杂文本分类任务中的优势。 展开更多
关键词 修船结算编码智能匹配复合模型 多特征融合 来自变换器的双向编码器表示模型 卷积神经网络模型 双向长短期记忆网络结合注意力机制模型
在线阅读 下载PDF
Leveraging Large Language Models to Enhance Medical Text Representation for Lung Diagnosis Prediction via Knowledge Infusion
4
作者 Binyu Gao Qiongye Dong +5 位作者 Tianqi Tao Congmin Zhu Jun Huang Hui Chen Qiuying Yang Honglei Liu 《Tsinghua Science and Technology》 2026年第1期418-429,共12页
Medical text representation is crucial for medical natural language processing(NLP)applications.Bidirectional encoder representations from transformers(BERT)has achieved the state-of-the-art performance in general dom... Medical text representation is crucial for medical natural language processing(NLP)applications.Bidirectional encoder representations from transformers(BERT)has achieved the state-of-the-art performance in general domain text representation.However,limited by the design of the pretraining task and the frequency of knowledge occurrence,it lacks understanding of medical knowledge.To overcome these problems,we proposed a selective knowledge extraction and fusion framework to enhance medical text representation.In the knowledge extraction phase,we first designed a semantic importance evaluation metric to extract internal knowledge.We then used large language models(LLMs)to extract external knowledge from systematized nomenclature of medicine clinical term(SNOMED CT).In the knowledge fusion phase,we utilized an attention mechanism and Siamese network to integrate internal knowledge and external knowledge.Extracting knowledge through large language models(LLMs)and integrating it into five different types of BERT models,we achieved significant improvements in the task of pulmonary disease text classification. 展开更多
关键词 large language models(LLMs) medical text representation knowledge infusion aided diagnosis bidirectional encoder representations from transformers(BERT)
原文传递
基于改进双向变换器模型的智能变电站虚回路自动校核研究
5
作者 陈文汉 赵张磊 +2 位作者 高炳蔚 陈刚 孔凡坊 《电气技术》 2026年第2期61-67,共7页
智能变电站的虚回路连接正确性关系到智能变电站继电保护设备能否正确动作,传统的虚回路校核依赖人工逐项对比,检验效果差、时间长。本文提出一种基于改进双向变换器(BERT)模型的智能变电站虚回路自动校核技术。首先通过语句清洗提高校... 智能变电站的虚回路连接正确性关系到智能变电站继电保护设备能否正确动作,传统的虚回路校核依赖人工逐项对比,检验效果差、时间长。本文提出一种基于改进双向变换器(BERT)模型的智能变电站虚回路自动校核技术。首先通过语句清洗提高校核精准度,然后通过掩盖中文词汇代替BERT模型中掩盖单个字符的方式,增强模型的中文词汇理解性能。为进一步提高辨识性能,结合词汇遮掩模式的BERT模型和孪生网络结构得到改进BERT模型,并将虚端子描述文本分成两个同语义子集作为改进BERT模型的输入,通过计算虚回路端子两端文本的余弦相似度来校核虚端子连接正确性。测试与应用结果显示,该方法能够准确识别虚端子匹配度并自动校核虚回路,有效降低了传统虚回路校核的工作量,提升了虚回路校核的准确性。 展开更多
关键词 虚回路校核 双向变换器(BERT) 自然语言处理 智能变电站
在线阅读 下载PDF
Classification of Conversational Sentences Using an Ensemble Pre-Trained Language Model with the Fine-Tuned Parameter
6
作者 R.Sujatha K.Nimala 《Computers, Materials & Continua》 SCIE EI 2024年第2期1669-1686,共18页
Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requir... Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requires more syntactic elements.Most existing strategies focus on the general semantics of a conversation without involving the context of the sentence,recognizing the progress and comparing impacts.An ensemble pre-trained language model was taken up here to classify the conversation sentences from the conversation corpus.The conversational sentences are classified into four categories:information,question,directive,and commission.These classification label sequences are for analyzing the conversation progress and predicting the pecking order of the conversation.Ensemble of Bidirectional Encoder for Representation of Transformer(BERT),Robustly Optimized BERT pretraining Approach(RoBERTa),Generative Pre-Trained Transformer(GPT),DistilBERT and Generalized Autoregressive Pretraining for Language Understanding(XLNet)models are trained on conversation corpus with hyperparameters.Hyperparameter tuning approach is carried out for better performance on sentence classification.This Ensemble of Pre-trained Language Models with a Hyperparameter Tuning(EPLM-HT)system is trained on an annotated conversation dataset.The proposed approach outperformed compared to the base BERT,GPT,DistilBERT and XLNet transformer models.The proposed ensemble model with the fine-tuned parameters achieved an F1_score of 0.88. 展开更多
关键词 bidirectional encoder for representation of transformer conversation ensemble model fine-tuning generalized autoregressive pretraining for language understanding generative pre-trained transformer hyperparameter tuning natural language processing robustly optimized BERT pretraining approach sentence classification transformer models
在线阅读 下载PDF
Enhancing Arabic Cyberbullying Detection with End-to-End Transformer Model
7
作者 Mohamed A.Mahdi Suliman Mohamed Fati +2 位作者 Mohamed A.G.Hazber Shahanawaj Ahamad Sawsan A.Saad 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第11期1651-1671,共21页
Cyberbullying,a critical concern for digital safety,necessitates effective linguistic analysis tools that can navigate the complexities of language use in online spaces.To tackle this challenge,our study introduces a ... Cyberbullying,a critical concern for digital safety,necessitates effective linguistic analysis tools that can navigate the complexities of language use in online spaces.To tackle this challenge,our study introduces a new approach employing Bidirectional Encoder Representations from the Transformers(BERT)base model(cased),originally pretrained in English.This model is uniquely adapted to recognize the intricate nuances of Arabic online communication,a key aspect often overlooked in conventional cyberbullying detection methods.Our model is an end-to-end solution that has been fine-tuned on a diverse dataset of Arabic social media(SM)tweets showing a notable increase in detection accuracy and sensitivity compared to existing methods.Experimental results on a diverse Arabic dataset collected from the‘X platform’demonstrate a notable increase in detection accuracy and sensitivity compared to existing methods.E-BERT shows a substantial improvement in performance,evidenced by an accuracy of 98.45%,precision of 99.17%,recall of 99.10%,and an F1 score of 99.14%.The proposed E-BERT not only addresses a critical gap in cyberbullying detection in Arabic online forums but also sets a precedent for applying cross-lingual pretrained models in regional language applications,offering a scalable and effective framework for enhancing online safety across Arabic-speaking communities. 展开更多
关键词 CYBERBULLYING offensive detection bidirectional encoder representations from the transformers(BERT) continuous bag of words Social Media natural language processing
在线阅读 下载PDF
空管不正常事件风险信息抽取与识别方法研究 被引量:3
8
作者 王洁宁 王帅翔 孙禾 《安全与环境学报》 北大核心 2025年第4期1444-1454,共11页
目前,空管各类安全管理信息化平台积累了大量非结构化文本数据,但未得到充分利用,为了挖掘空管不正常事件中潜藏的风险,研究利用收集的四千余条空管站不正常事件数据和自构建的4836个空管领域专业术语词,提出了一个基于空管专业信息词... 目前,空管各类安全管理信息化平台积累了大量非结构化文本数据,但未得到充分利用,为了挖掘空管不正常事件中潜藏的风险,研究利用收集的四千余条空管站不正常事件数据和自构建的4836个空管领域专业术语词,提出了一个基于空管专业信息词抽取的双向编码器表征法和双向长短时记忆网络的深度学习模型(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short-Term Memory,BERT-BiLSTM)。该模型通过对不正常事件文本进行信息抽取,过滤其中无用信息,并将双向编码器表征法(Bidirectional Encoder Representations from Transformers,BERT)模型输出的特征向量序列作为双向长短时记忆网络(Bidirectional Long Short-Term Memory,BiLSTM)的输入序列,以对空管不正常事件文本风险识别任务进行对比试验。试验结果显示,在风险识别试验中,基于空管专业信息词抽取的BERT-BiLSTM模型相比于通用领域的BERT模型,风险识别准确率提升了3百分点。可以看出该模型有效提升了空管安全信息处理能力,能够有效识别空管部门日常运行中出现的不正常事件所带来的风险,同时可以为空管安全领域信息挖掘相关任务提供基础参考。 展开更多
关键词 安全工程 双向编码器表征法 双向长短时记忆网络 空管不正常事件 风险识别
原文传递
基于用户数据特征深度挖掘的快速图书检索算法 被引量:1
9
作者 窦淑庆 刘思豆 《现代电子技术》 北大核心 2025年第14期137-142,共6页
针对传统图书推荐系统所得到的计算结果滞后于实时需求且准确性较低的缺陷,文中基于用户画像数据,提出一种快速图书检索算法。该算法在用户画像构建部分对静态属性抽取和动态标签行为进行建模。在图书特征提取模型中,使用BERT-Word2Vec... 针对传统图书推荐系统所得到的计算结果滞后于实时需求且准确性较低的缺陷,文中基于用户画像数据,提出一种快速图书检索算法。该算法在用户画像构建部分对静态属性抽取和动态标签行为进行建模。在图书特征提取模型中,使用BERT-Word2Vec作为基础框架进行多模态特征提取,并利用双塔深度匹配模型构建了用户MLP塔和图书改进CNN塔,对特征进行充分细致的多维分析。模型通过将实时反馈机制Kafka-Redis流处理算法与会话注意力加权融合,最终实现了场景化的推荐。实验测试结果显示,NDCG@10指标较最优基准提升了约21.0%,行为反馈延迟在峰值500 QPS流量下小于等于3.5 s。表明所提算法能够为知识服务场景提供兼具准确性、时效性与场景适应性的信息推荐解决方案。 展开更多
关键词 用户画像 双向编码器表示技术 双塔深度匹配模型 多层感知器 卷积神经网络 推荐算法
在线阅读 下载PDF
南美白对虾养殖领域中文命名实体识别数据集构建
10
作者 彭小红 邓峰 余应淮 《计算机工程与应用》 北大核心 2025年第9期353-362,共10页
该研究致力于构建一个高质量的数据集,用于南美白对虾养殖领域的命名实体识别(named entity recognition,NER)任务,命名为VamNER。为确保数据集的多样性,从CNKI数据库中收集了近10年的高质量论文,并结合权威书籍进行语料构建。邀请专家... 该研究致力于构建一个高质量的数据集,用于南美白对虾养殖领域的命名实体识别(named entity recognition,NER)任务,命名为VamNER。为确保数据集的多样性,从CNKI数据库中收集了近10年的高质量论文,并结合权威书籍进行语料构建。邀请专家讨论实体类型,并经过专业培训的标注人员使用IOB2标注格式进行标注,标注过程分为预标注和正式标注两个阶段以提高效率。在预标注阶段,标注者间一致性(inter-annotation agreement,IAA)达到0.87,表明标注人员的一致性较高。最终,VamNER包含6115个句子,总字符数达384602,涵盖10个实体类型,共有12814个实体。研究通过与多个通用领域数据集和一个特定领域数据集进行比较,揭示了VamNER的独特特性。在实验中使用了预训练的基于变换器的双向编码器表示(bidirectional encoder representations from Transformers,BERT)模型、双向长短期记忆神经网络(bidirectional long short-term memory network,BiLSTM)和条件随机场模型(conditional random fields,CRF),最优模型在测试集上的F1值达到82.8%。VamNER成为首个专注于南美白对虾养殖领域的NER数据集,为中文特定领域NER研究提供了丰富资源,有望推动水产养殖领域NER研究的发展。 展开更多
关键词 命名实体识别 VamNER数据集 标注者间一致性(IAA) 基于变换器的双向编码器表示(BERT) 双向长短期记忆神经网络(BiLSTM) 条件随机场(CRF)
在线阅读 下载PDF
基于融合评价指标BERT-RGCN的油田评价区块调整措施推荐方法
11
作者 王梅 朱晓丽 +2 位作者 孙洪国 王海艳 濮御 《东北石油大学学报》 北大核心 2025年第5期110-120,I0008,共12页
为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价... 为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价区块及措施之间的交互信息构建异构图,利用BERT模型生成评价指标、评价区块及措施术语词向量,共同作为输入词向量,将融合评价指标信息的异构图和输入词向量放入RGCN模型训练,学习评价区块的有效表征;在某油田评价区块提供的数据集上进行实验对比。结果表明:EI-BERT-RGCN方法能够捕捉文本中隐含的复杂语义并缓解数据稀疏问题,能更好理解未观察到的评价指标与调整措施之间的潜在关系,提升节点的表示质量。EI-BERT-RGCN模型在精确率、召回率、F_(1)分数及ROC曲线下面积等评价指标上优于其他基准模型,在保持较高精确率的同时,展现更好的泛化能力和鲁棒性。该结果为油田评价区块调整措施推荐提供参考。 展开更多
关键词 异构图 变换器双向编码(BERT) 预训练模型 关系图卷积神经网络(RGCN) 推荐算法 措施推荐 油田评价区块
在线阅读 下载PDF
基于BERT融合算法的病例文本结构化模型研究
12
作者 张雪 王琛琛 职宁 《中国医疗设备》 2025年第9期12-19,共8页
目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长... 目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长短时记忆网络建立时序关系,并引入条件随机场优化标签序列的一致性。实验选用MIMIC-Ⅲ和ClinicalSTS这2个权威临床数据集进行分析,构建五类医学文本分类任务,对比所有模型在不同结构组合下的性能表现。结果本研究所提出的病例文本结构化模型的精准度、召回率和F1得分分别为0.92、0.90和0.91,均较传统双向编码器模型提升约10%;在处理超过1000字的长文本场景时,模型效率提升达12%,表现出良好的时效性与可扩展性。结论本研究通过验证深度融合多种结构对提高病例文本结构化处理能力的有效性,为智能医学文本分析提供了理论依据。 展开更多
关键词 病例文本 长短时记忆网络 BERT 图卷积神经网络 结构化模型 医学智能化
在线阅读 下载PDF
基于语音识别技术的智慧讲台设计
13
作者 屈亚磊 《电声技术》 2025年第9期79-82,共4页
针对传统讲台在教学效率与交互性方面的不足,提出一种基于语音识别技术的智慧讲台设计方案。通过构建语音信号预处理、梅尔频率倒谱系数(Mel Frequency Cepstral Coefficient,MFCC)特征提取、Transformer-连续时序分类(Connectionist Te... 针对传统讲台在教学效率与交互性方面的不足,提出一种基于语音识别技术的智慧讲台设计方案。通过构建语音信号预处理、梅尔频率倒谱系数(Mel Frequency Cepstral Coefficient,MFCC)特征提取、Transformer-连续时序分类(Connectionist Temporal Classification,CTC)声学模型及双向编码器表征法(Bidirectional Encoder Representations from Transformers,BERT)语言模型后处理的完整识别链路,实现在高噪声、多说话人场景下的稳定语音识别。基于此,设计教师语音交互、学生辅助学习及课堂管理模块,并进行实验验证。结果表明,系统在25 dB与10 dB噪声条件下的识别准确率分别为95.2%与92.8%,端到端延迟控制在300 ms以内,具有良好的健壮性与实时性,可有效支撑智慧讲台的实际应用。 展开更多
关键词 语音识别 智慧讲台 Transformer-连续时序分类(CTC) 双向编码器表征法(BERT)语言模型
在线阅读 下载PDF
基于预训练模型与双向注意力流的抽取式阅读理解模型
14
作者 文勇军 吴金铭 梅硕 《首都师范大学学报(自然科学版)》 2025年第2期1-11,共11页
针对服务机器人的抽取式阅读理解任务中出现答案抽取准确度不高的问题,构建了基于预训练模型与双向注意力流的抽取式阅读理解模型。该模型首先采用预训练模型来提取问题与文档上下文的浅层联合语义表征;其次利用双向注意力网络来加强特... 针对服务机器人的抽取式阅读理解任务中出现答案抽取准确度不高的问题,构建了基于预训练模型与双向注意力流的抽取式阅读理解模型。该模型首先采用预训练模型来提取问题与文档上下文的浅层联合语义表征;其次利用双向注意力网络来加强特征交互和信息融合,得到问题与文档上下文的深层联合语义表征;最后结合浅层和深层的联合语义表征,通过排序、滤错和定位操作完成对答案的抽取。在抽取式问答任务的斯坦福英文机器阅读理解数据集SQuAD 1.1和“讯飞杯”中文机器阅读理解数据集CMRC 2018上进行了实验。结果表明:与英文预训练语言模型BERT相比,该模型的性能指标EM和F1值分别提高了1.172%和1.194%;与中文预训练语言模型RoBERTa-wwm-ext相比,该模型的EM和F1值分别提高了1.336%和0.921%。 展开更多
关键词 自然语言处理 机器阅读理解 预训练模型 双向注意力流(BERT) RoBERTa-wwm-ext 答案抽取
在线阅读 下载PDF
宁德市乡村旅游评论的情感分析
15
作者 张启宁 《宁德师范学院学报(自然科学版)》 2025年第2期134-143,共10页
基于双向编码器表示的变换器(BERT)模型对宁德市乡村旅游评论数据进行情感分析,旨在探索深度学习技术在旅游服务优化中的应用潜力。通过收集“携程网”和“大众点评网”的评论数据,并结合数据清洗、分词、情感标注和数据增强等预处理技... 基于双向编码器表示的变换器(BERT)模型对宁德市乡村旅游评论数据进行情感分析,旨在探索深度学习技术在旅游服务优化中的应用潜力。通过收集“携程网”和“大众点评网”的评论数据,并结合数据清洗、分词、情感标注和数据增强等预处理技术,构建并优化情感分析模型。研究采用BERT模型并结合双向长短期记忆网络(BiLSTM)和卷积神经网络(CNN),提升对文本上下文语义的捕捉能力,实现情感倾向的精准分类。实验表明,该模型在准确率、精确率、召回率和F1分数等指标上均显著优于传统方法,为提升宁德市乡村旅游服务质量和优化游客体验提供了科学依据。 展开更多
关键词 乡村旅游 游客评价 情感分析 双向编码器表示的变换器(BERT)模型 宁德市
在线阅读 下载PDF
融合BERT BiLSTM CRF的城市内涝灾害风险要素识别方法研究 被引量:3
16
作者 张乐 张海龙 +1 位作者 李锋 吴敏 《安全与环境学报》 北大核心 2025年第8期3176-3188,共13页
为了实现在城市内涝舆情信息中快速、精准地识别相关风险要素,首先基于新浪微博平台,对用户评论信息及媒体发布信息进行采集、整理及标注,构建了城市内涝灾害事件语料数据集。进而针对城市内涝舆情信息格式不统一、语义复杂且风险要素... 为了实现在城市内涝舆情信息中快速、精准地识别相关风险要素,首先基于新浪微博平台,对用户评论信息及媒体发布信息进行采集、整理及标注,构建了城市内涝灾害事件语料数据集。进而针对城市内涝舆情信息格式不统一、语义复杂且风险要素识别的专业性、精准度要求较高等问题,结合自然灾害系统理论的风险要素框架,提出了一种基于双向编码器表征法-双向长短期记忆-条件随机场(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short-Term Memory-Conditional Random Field,BERT-BiLSTM-CRF)的识别方法,并开展了一系列模型验证试验。对比试验结果表明,该模型在准确率、召回率、F_(1)三项指标上均有较好表现,其中准确率为84.62%,召回率为86.19%,F_(1)为85.35%,优于其他对比模型。消融试验结果表明,BERT预训练模型对于该模型性能有着更为显著的影响。综合上述试验结果,可以验证该模型能够有效识别城市内涝舆情信息中的各类风险要素,进而为城市内涝灾害风险管控的数智化转型提供研究依据。 展开更多
关键词 公共安全 城市内涝 双向编码器表征法 双向长短期记忆网络 条件随机场 舆情信息 风险要素识别
原文传递
基于Bert-BiLSTM-CRF模型的中文命名实体识别 被引量:4
17
作者 龙星全 李佳 《吉林大学学报(信息科学版)》 2025年第2期384-393,共10页
针对现有的中文命名实体识别算法没有充分考虑实体识别任务的数据特征,存在中文样本数据的类别不平衡、训练数据中的噪声太大和每次模型生成数据的分布差异较大的问题,提出了一种以BERT-BiLSTM-CRF(Bidirectional Encoder Representatio... 针对现有的中文命名实体识别算法没有充分考虑实体识别任务的数据特征,存在中文样本数据的类别不平衡、训练数据中的噪声太大和每次模型生成数据的分布差异较大的问题,提出了一种以BERT-BiLSTM-CRF(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short-Term Memory-Conditional Random Field)为基线改进的中文命名实体识别模型。首先在BERT-BiLSTM-CRF模型上结合P-Tuning v2技术,精确提取数据特征,然后使用3个损失函数包括聚焦损失(Focal Loss)、标签平滑(Label Smoothing)和KL Loss(Kullback-Leibler divergence loss)作为正则项参与损失计算。实验结果表明,改进的模型在Weibo、Resume和MSRA(Microsoft Research Asia)数据集上的F 1得分分别为71.13%、96.31%、95.90%,验证了所提算法具有更好的性能,并且在不同的下游任务中,所提算法易于与其他的神经网络结合与扩展。 展开更多
关键词 中文命名实体识别 BERT-BiLSTM-CRF模型 P-Tuning v2技术 损失函数
在线阅读 下载PDF
基于知识注入的燃气知识双向变换器模型
18
作者 柳晓昱 庄育锋 +2 位作者 赵兴昊 王珂璠 张国开 《中国安全科学学报》 北大核心 2025年第3期204-211,共8页
为提高燃气管网领域的应急管理水平,提出燃气知识双向变换器(Gas-kBERT)模型。该模型结合聊天生成预训练转换器(ChatGPT)扩充的燃气管网领域数据,以及构建的中文燃气语言理解-三元组(CGLU-Spo)和相关语料库,通过改变模型的掩码(MASK)机... 为提高燃气管网领域的应急管理水平,提出燃气知识双向变换器(Gas-kBERT)模型。该模型结合聊天生成预训练转换器(ChatGPT)扩充的燃气管网领域数据,以及构建的中文燃气语言理解-三元组(CGLU-Spo)和相关语料库,通过改变模型的掩码(MASK)机制,成功将领域知识注入模型中。考虑到燃气管网领域的专业性和特殊性,Gas-kBERT在不同规模和内容的语料库上进行预训练,并在燃气管网领域的命名实体识别和分类任务上进行微调。结果表明:与通用的双向变换器(BERT)模型相比,Gas-kBERT在燃气管网领域的文本挖掘任务中F 1值表现出显著的提升。在命名实体识别任务中,F 1值提高29.55%;在文本分类任务中,F 1值提升高达83.33%。由此证明Gas-kBERT模型在燃气管网领域的文本挖掘任务中具有出色的表现。 展开更多
关键词 燃气管网 燃气知识双向变换器(Gas-kBERT)模型 自然语言处理(NLP) 知识注入 双向变换器(BERT)模型
原文传递
基于IWOA-BERT的磨煤机故障预警 被引量:2
19
作者 段明达 张胜 《振动与冲击》 北大核心 2025年第11期288-294,共7页
实现磨煤机的故障预警技术可以降低事故发生率,针对其运行中随机扰动多,且故障早期阶段不易判断的特点,提出了一种基于改进鲸鱼算法优化BERT(bidirectional encoder representations from transformers)模型的故障预警方法。首先,通过... 实现磨煤机的故障预警技术可以降低事故发生率,针对其运行中随机扰动多,且故障早期阶段不易判断的特点,提出了一种基于改进鲸鱼算法优化BERT(bidirectional encoder representations from transformers)模型的故障预警方法。首先,通过改进传统鲸鱼算法的收敛因子和引入高斯变异算子来增强算法的寻优能力;其次,选取与磨煤机故障相关的特征参数作为建模变量,利用改进鲸鱼算法优化BERT模型的超参数,建立故障预警模型;然后,计算正常状态数据中每个滑动窗口的相似度均值,选取最小值乘以阈值系数确定预警阈值;最后,根据专家系统推理预警时刻的故障类型并给出检修指导。将所提方法应用于某350 MW机组磨煤机的运行中,结果表明模型的预测准确率高,且能提前24 s给出预警信息,为工程应用提供了参考。 展开更多
关键词 磨煤机 故障预警 BERT算法 改进鲸鱼优化算法(IWOA) 专家系统
在线阅读 下载PDF
基于话题博文的食品安全网络舆情评论文本多情感分析
20
作者 吕星辰 林伟君 黄红星 《计算机应用》 北大核心 2025年第12期3786-3795,共10页
为了解决食品安全网络舆情中评论文本情感复杂多样,且依赖讨论的话题和博文信息的问题,提出一种融合话题博文的评论文本多情感分析模型TBR-MSAM(Topic Blog Review-Multi-Sentiment Analysis Model)。首先,使用RoBERTa(Robustly optimiz... 为了解决食品安全网络舆情中评论文本情感复杂多样,且依赖讨论的话题和博文信息的问题,提出一种融合话题博文的评论文本多情感分析模型TBR-MSAM(Topic Blog Review-Multi-Sentiment Analysis Model)。首先,使用RoBERTa(Robustly optimized BERT(Bidirectional Encoder Representations from Transformers)pretraining approach)和深度学习模型构建话题博文评论特征提取(TBR-FE)模块分别对话题、博文和评论信息进行上下文特征提取;其次,构建话题博文评论的交互注意力特征融合(TBR-IAFF)模块对话题-评论和博文-评论进行两两交互以获得交互特征,并进行权重的合理分配,从而挖掘话题、博文和评论之间的复杂关系;接着,构建话题博文评论的交叉特征融合(TBR-CFF)模块对多个信息进行深层次特征融合,从而挖掘用户潜在的情感特征;最后,通过Softmax对食品安全网络舆情中评论文本的4种情感极性进行分类。在所构建的3个食品安全网络舆情数据集上的实验结果表明,相较于无话题和博文信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升了5.0和5.8个百分点;相较于融合话题和博文信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升0.2和1.1个百分点;相较于同时带有话题、博文和评论文本信息的最优基线模型,TBR-MSAM的Macro-F1和准确率分别至少提升了11.7和10.0个百分点,验证了TBR-MSAM在食品安全网络舆情的多情感分类任务中的有效性。 展开更多
关键词 食品安全网络舆情 多情感分析 RoBERTa 交互注意力网络 注意力机制 特征融合
在线阅读 下载PDF
上一页 1 2 12 下一页 到第
使用帮助 返回顶部