期刊文献+
共找到232篇文章
< 1 2 12 >
每页显示 20 50 100
Optimizing Airline Review Sentiment Analysis:A Comparative Analysis of LLaMA and BERT Models through Fine-Tuning and Few-Shot Learning
1
作者 Konstantinos I.Roumeliotis Nikolaos D.Tselikas Dimitrios K.Nasiopoulos 《Computers, Materials & Continua》 2025年第2期2769-2792,共24页
In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance o... In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance of two advanced models,the Large Language Model(LLM)LLaMA model and NLP BERT model,in the context of airline review sentiment analysis.Through fine-tuning,domain adaptation,and the application of few-shot learning,the study addresses the subtleties of sentiment expressions in airline-related text data.Employing predictive modeling and comparative analysis,the research evaluates the effectiveness of Large Language Model Meta AI(LLaMA)and Bidirectional Encoder Representations from Transformers(BERT)in capturing sentiment intricacies.Fine-tuning,including domain adaptation,enhances the models'performance in sentiment classification tasks.Additionally,the study explores the potential of few-shot learning to improve model generalization using minimal annotated data for targeted sentiment analysis.By conducting experiments on a diverse airline review dataset,the research quantifies the impact of fine-tuning,domain adaptation,and few-shot learning on model performance,providing valuable insights for industries aiming to predict recommendations and enhance customer satisfaction through a deeper understanding of sentiment in user-generated content(UGC).This research contributes to refining sentiment analysis models,ultimately fostering improved customer satisfaction in the airline industry. 展开更多
关键词 Sentiment classification review sentiment analysis user-generated content domain adaptation customer satisfaction LLaMA model bert model airline reviews LLM classification fine-tuning
在线阅读 下载PDF
基于BERT-Tiny Transformer-CRF的自动化装配命名实体识别方法
2
作者 钱冠翔 于丽娅 +2 位作者 李传江 李少波 徐兆 《计算机集成制造系统》 北大核心 2025年第10期3594-3606,共13页
随着工业5.0对知识驱动的智能制造提出新要求,机械装配领域面临多模态数据稀疏、实体语义边界模糊、数据分布呈现长尾效应的挑战。为此,提出一种融合多项式损失函数的BERT-Tiny Transformer-CRF模型,旨在提升低资源场景下的领域知识抽... 随着工业5.0对知识驱动的智能制造提出新要求,机械装配领域面临多模态数据稀疏、实体语义边界模糊、数据分布呈现长尾效应的挑战。为此,提出一种融合多项式损失函数的BERT-Tiny Transformer-CRF模型,旨在提升低资源场景下的领域知识抽取效率。首先,通过知识蒸馏与语义增强技术注入领域先验知识,其次设计维度自适应特征压缩模块实现跨模态特征融合,最后构建动态边缘感知解码机制实现实体边界的精准定位。利用自主构建的自动化装配数据集,将所提方法与不同实体识别模型进行对比,实验结果表明,所提模型具有良好的泛化识别能力,以86.62%的准确率、85.27%的精确率、85.67%的召回率和85.46%的F1值优于其他模型,为工业5.0下机械自动化装配领域知识图谱的构建提供了一种有效的技术方法。 展开更多
关键词 bert-Tiny transformer-CRF模型 数据增强 PolyLoss 自动化装配
在线阅读 下载PDF
基于Transformer和BERT的名词隐喻识别 被引量:13
3
作者 张冬瑜 崔紫娟 +2 位作者 李映夏 张伟 林鸿飞 《数据分析与知识发现》 CSSCI CSCD 北大核心 2020年第4期100-108,共9页
【目的】解决名词隐喻识别研究中语义信息利用不足和关系表征的问题,提高识别效果。【方法】使用BERT模型替代词向量,在语义表示中同时包含词与词之间的位置关系等信息,利用Transformer模型进行特征提取并通过神经网络分类器进行识别。... 【目的】解决名词隐喻识别研究中语义信息利用不足和关系表征的问题,提高识别效果。【方法】使用BERT模型替代词向量,在语义表示中同时包含词与词之间的位置关系等信息,利用Transformer模型进行特征提取并通过神经网络分类器进行识别。【结果】本文模型在准确率(0.900 0)、精确率(0.896 4)、召回率(0.885 8)和F1值(0.891 0)4个指标上均表现最好,可以注意到多个关键点信息,提高名词隐喻的分类效果。【局限】对于中文文本中的冷僻词汇、成语古语以及干扰词汇等的判断比较困难。【结论】本文所提隐喻识别方法优于现有基于人工特征的分类模型及主流深度学习模型。 展开更多
关键词 隐喻识别 名词隐喻 语义理解 transformer模型 bert模型
原文传递
中文短文本情感分类:融入位置感知强化的Transformer-TextCNN模型研究
4
作者 李浩君 王耀东 汪旭辉 《计算机工程与应用》 北大核心 2025年第11期216-226,共11页
针对当前中文短文本情感分类模型文本位置信息与关键特征获取不足的问题,提出了一种融入位置感知强化的Transformer-TextCNN情感分类模型。利用BERT可学习绝对位置编码与正弦位置编码强化模型的位置感知能力,融合Transformer的全局上下... 针对当前中文短文本情感分类模型文本位置信息与关键特征获取不足的问题,提出了一种融入位置感知强化的Transformer-TextCNN情感分类模型。利用BERT可学习绝对位置编码与正弦位置编码强化模型的位置感知能力,融合Transformer的全局上下文理解能力与TextCNN的局部特征捕捉能力,分别提取中文短文本全局特征与局部特征,构建位置感知强化与特征协同的情感特征输出服务,实现中文短文本情感准确分类。实验结果表明,该模型在视频弹幕数据集上的准确率达到90.23%,在SMP2020数据集上的准确率达到87.38%。相较于最优的基线模型,准确率在视频弹幕数据集和SMP2020数据集上分别提高了1.98和0.44个百分点,在中文短文本情感分类任务中取得更好的分类效果。 展开更多
关键词 文本情感分类 bert transformER textCNN 位置编码
在线阅读 下载PDF
结合部首特征和BERT-Transformer-CRF的中文电子病历实体识别方法研究 被引量:2
5
作者 姚蕾 蒋明峰 +2 位作者 方贤 魏波 李杨 《软件工程》 2022年第12期30-36,共7页
在中文电子病历命名实体识别(CNER)中,中文文本缺乏划分单词边界的分隔符,一些现有的方法难以捕捉长距离相互依赖的特征。因此,文章提出一种利用预训练模型(BERT-Transformer-CRF,BTC)实现CNER的命名实体识别方法。首先,运用BERT(Bidire... 在中文电子病历命名实体识别(CNER)中,中文文本缺乏划分单词边界的分隔符,一些现有的方法难以捕捉长距离相互依赖的特征。因此,文章提出一种利用预训练模型(BERT-Transformer-CRF,BTC)实现CNER的命名实体识别方法。首先,运用BERT(Bidirectional Encoder Representations from Transformers)提取文本特征。其次,使用Transformer捕捉字符之间的依赖关系,此过程不需要考虑字符间的距离;此外,由于汉字的术语字典信息和部首信息包含更深层次的语义信息,所以将术语字典和部首的特征纳入模型以提高模型的性能。最后,运用CRF解码预测标签。实验结果表明所提模型在CCKS2017和CCKS2021数据集上的F1值分别达到了96.22%和84.65%,优于当前主流的命名实体识别模型,具有更好的识别效果。 展开更多
关键词 中文命名实体识别 部首特征 transformER bert
在线阅读 下载PDF
基于融合评价指标BERT-RGCN的油田评价区块调整措施推荐方法
6
作者 王梅 朱晓丽 +2 位作者 孙洪国 王海艳 濮御 《东北石油大学学报》 北大核心 2025年第5期110-120,I0008,共12页
为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价... 为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价区块及措施之间的交互信息构建异构图,利用BERT模型生成评价指标、评价区块及措施术语词向量,共同作为输入词向量,将融合评价指标信息的异构图和输入词向量放入RGCN模型训练,学习评价区块的有效表征;在某油田评价区块提供的数据集上进行实验对比。结果表明:EI-BERT-RGCN方法能够捕捉文本中隐含的复杂语义并缓解数据稀疏问题,能更好理解未观察到的评价指标与调整措施之间的潜在关系,提升节点的表示质量。EI-BERT-RGCN模型在精确率、召回率、F_(1)分数及ROC曲线下面积等评价指标上优于其他基准模型,在保持较高精确率的同时,展现更好的泛化能力和鲁棒性。该结果为油田评价区块调整措施推荐提供参考。 展开更多
关键词 异构图 变换器双向编码(bert) 预训练模型 关系图卷积神经网络(RGCN) 推荐算法 措施推荐 油田评价区块
在线阅读 下载PDF
基于BERT融合算法的病例文本结构化模型研究
7
作者 张雪 王琛琛 职宁 《中国医疗设备》 2025年第9期12-19,共8页
目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长... 目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长短时记忆网络建立时序关系,并引入条件随机场优化标签序列的一致性。实验选用MIMIC-Ⅲ和ClinicalSTS这2个权威临床数据集进行分析,构建五类医学文本分类任务,对比所有模型在不同结构组合下的性能表现。结果本研究所提出的病例文本结构化模型的精准度、召回率和F1得分分别为0.92、0.90和0.91,均较传统双向编码器模型提升约10%;在处理超过1000字的长文本场景时,模型效率提升达12%,表现出良好的时效性与可扩展性。结论本研究通过验证深度融合多种结构对提高病例文本结构化处理能力的有效性,为智能医学文本分析提供了理论依据。 展开更多
关键词 病例文本 长短时记忆网络 bert 图卷积神经网络 结构化模型 医学智能化
在线阅读 下载PDF
基于BERT-Transformer的跨语言文本摘要技术研究 被引量:1
8
作者 颜婷婷 戎慧敏 《平顶山学院学报》 2023年第5期61-64,共4页
跨语言文本摘要自动生成技术在信息提取任务中具有重要作用,为此研究设计了基于双向Transformer编码器(Bidirectional Encoder Representation from Transformers,BERT)的摘要生成模型.模型的掩码方式由casual改为了seq2seq,模型使用改... 跨语言文本摘要自动生成技术在信息提取任务中具有重要作用,为此研究设计了基于双向Transformer编码器(Bidirectional Encoder Representation from Transformers,BERT)的摘要生成模型.模型的掩码方式由casual改为了seq2seq,模型使用改进的随机集束搜索算法(Random Beam Search Algorithm,RBSA)作为解码算法.实验结果显示,RBSA的多样性百分比最高为69.20%,高于对比算法.摘要模型的覆盖度分数为30.12,生成的摘要在数据集1上的ROUGE-1、ROUGE-2、ROUGE-L数值分别为39.11、17.20、29.71,在数据集2上分别为41.21、18.70、38.29,均优于对比模型,可以自动生成中文和英文文本摘要,通过快速提取原文信息提高翻译效率. 展开更多
关键词 bert transformER 跨语言文本 摘要生成 BSA
在线阅读 下载PDF
基于Bert-BiLSTM-CRF模型的中文命名实体识别 被引量:4
9
作者 龙星全 李佳 《吉林大学学报(信息科学版)》 2025年第2期384-393,共10页
针对现有的中文命名实体识别算法没有充分考虑实体识别任务的数据特征,存在中文样本数据的类别不平衡、训练数据中的噪声太大和每次模型生成数据的分布差异较大的问题,提出了一种以BERT-BiLSTM-CRF(Bidirectional Encoder Representatio... 针对现有的中文命名实体识别算法没有充分考虑实体识别任务的数据特征,存在中文样本数据的类别不平衡、训练数据中的噪声太大和每次模型生成数据的分布差异较大的问题,提出了一种以BERT-BiLSTM-CRF(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short-Term Memory-Conditional Random Field)为基线改进的中文命名实体识别模型。首先在BERT-BiLSTM-CRF模型上结合P-Tuning v2技术,精确提取数据特征,然后使用3个损失函数包括聚焦损失(Focal Loss)、标签平滑(Label Smoothing)和KL Loss(Kullback-Leibler divergence loss)作为正则项参与损失计算。实验结果表明,改进的模型在Weibo、Resume和MSRA(Microsoft Research Asia)数据集上的F 1得分分别为71.13%、96.31%、95.90%,验证了所提算法具有更好的性能,并且在不同的下游任务中,所提算法易于与其他的神经网络结合与扩展。 展开更多
关键词 中文命名实体识别 bert-BiLSTM-CRF模型 P-Tuning v2技术 损失函数
在线阅读 下载PDF
基于IWOA-BERT的磨煤机故障预警 被引量:2
10
作者 段明达 张胜 《振动与冲击》 北大核心 2025年第11期288-294,共7页
实现磨煤机的故障预警技术可以降低事故发生率,针对其运行中随机扰动多,且故障早期阶段不易判断的特点,提出了一种基于改进鲸鱼算法优化BERT(bidirectional encoder representations from transformers)模型的故障预警方法。首先,通过... 实现磨煤机的故障预警技术可以降低事故发生率,针对其运行中随机扰动多,且故障早期阶段不易判断的特点,提出了一种基于改进鲸鱼算法优化BERT(bidirectional encoder representations from transformers)模型的故障预警方法。首先,通过改进传统鲸鱼算法的收敛因子和引入高斯变异算子来增强算法的寻优能力;其次,选取与磨煤机故障相关的特征参数作为建模变量,利用改进鲸鱼算法优化BERT模型的超参数,建立故障预警模型;然后,计算正常状态数据中每个滑动窗口的相似度均值,选取最小值乘以阈值系数确定预警阈值;最后,根据专家系统推理预警时刻的故障类型并给出检修指导。将所提方法应用于某350 MW机组磨煤机的运行中,结果表明模型的预测准确率高,且能提前24 s给出预警信息,为工程应用提供了参考。 展开更多
关键词 磨煤机 故障预警 bert算法 改进鲸鱼优化算法(IWOA) 专家系统
在线阅读 下载PDF
基于BERT和Bi-LSTM的题目难度预测:知识点标签增强模型
11
作者 叶航 柴春来 +2 位作者 张思赟 陈东烁 吴霁航 《计算机应用》 北大核心 2025年第S1期37-42,共6页
目前在高校C语言编程课程中,使用客观评价的题目难度考验学生的学习情况是非常重要的手段。目前大部分难度评估方法都针对特有科目和特有题型,而对中文编程题目的难度评估存在不足。因此,提出一种融合题目文本和知识点标签的基于BERT(Bi... 目前在高校C语言编程课程中,使用客观评价的题目难度考验学生的学习情况是非常重要的手段。目前大部分难度评估方法都针对特有科目和特有题型,而对中文编程题目的难度评估存在不足。因此,提出一种融合题目文本和知识点标签的基于BERT(Bidirectional Encoder Representations from Transformers)和双向长短时记忆(Bi-LSTM)模型的C语言题目难度预测模型FTKB-BiLSTM(Fusion of Title and Knowledge based on BERT and Bi-LSTM)。首先,利用BERT的中文预训练模型获得题目文本和知识点的词向量;其次,融合模块将融合后的信息通过BERT处理得到文本的信息表示,并输入Bi-LSTM模型中学习其中的序列信息,提取更丰富的特征;最后,把经Bi-LSTM模型得到的特征表示通过全连接层并经过Softmax函数处理得到题目难度分类结果。在Leetcode中文数据集和ZjgsuOJ平台数据集上的实验结果表明,相较于XLNet等主流的深度学习模型,所提模型的准确率更优,具有较强的分类能力。 展开更多
关键词 自然语言处理 深度学习 题目难度预测 bert 预训练模型
在线阅读 下载PDF
ExplainableDetector:Exploring transformer-based language modeling approach for SMS spam detection with explainability analysis
12
作者 Mohammad Amaz Uddin Muhammad Nazrul Islam +2 位作者 Leandros Maglaras Helge Janicke Iqbal H.Sarker 《Digital Communications and Networks》 2025年第5期1504-1518,共15页
Short Message Service(SMS)is a widely used and cost-effective communication medium that has unfortunately become a frequent target for unsolicited messages-commonly known as SMS spam.With the rapid adoption of smartph... Short Message Service(SMS)is a widely used and cost-effective communication medium that has unfortunately become a frequent target for unsolicited messages-commonly known as SMS spam.With the rapid adoption of smartphones and increased Internet connectivity,SMS spam has emerged as a prevalent threat.Spammers have recognized the critical role SMS plays in today’s modern communication,making it a prime target for abuse.As cybersecurity threats continue to evolve,the volume of SMS spam has increased substantially in recent years.Moreover,the unstructured format of SMS data creates significant challenges for SMS spam detection,making it more difficult to successfully combat spam attacks.In this paper,we present an optimized and fine-tuned transformer-based Language Model to address the problem of SMS spam detection.We use a benchmark SMS spam dataset to analyze this spam detection model.Additionally,we utilize pre-processing techniques to obtain clean and noise-free data and address class imbalance problem by leveraging text augmentation techniques.The overall experiment showed that our optimized fine-tuned BERT(Bidirectional Encoder Representations from Transformers)variant model RoBERTa obtained high accuracy with 99.84%.To further enhance model transparency,we incorporate Explainable Artificial Intelligence(XAI)techniques that compute positive and negative coefficient scores,offering insight into the model’s decision-making process.Additionally,we evaluate the performance of traditional machine learning models as a baseline for comparison.This comprehensive analysis demonstrates the significant impact language models can have on addressing complex text-based challenges within the cybersecurity landscape. 展开更多
关键词 CYBERSECURITY Machine learning Large language model Spam detection Text analytics Explainable AI fine-tuning transformER
在线阅读 下载PDF
BERT与BiLSTM融合技术在客户诉求数据治理中的应用研究
13
作者 李艳艳 徐梦舟 +2 位作者 严佳梅 周晶 张展鹏 《智能物联技术》 2025年第3期62-67,共6页
聚焦国家电网客服中心客户诉求数据治理中存在的效率低、人工依赖性强等问题,提出基于Transformer的双向编码器表征(Bidirectional Encoder Representations from Transformer,BERT)和双向长短时记忆(Bi-directional Long Short-Term Me... 聚焦国家电网客服中心客户诉求数据治理中存在的效率低、人工依赖性强等问题,提出基于Transformer的双向编码器表征(Bidirectional Encoder Representations from Transformer,BERT)和双向长短时记忆(Bi-directional Long Short-Term Memory,BiLSTM)融合技术的多阶段联合数据治理框架。通过构建有效性判断、语义增强、诉求监测及业务场景分类等核心模块,形成覆盖数据预处理、语义分析、分类预测及诉求应用的全链路治理体系。结果验表明,提出的BERT与BiLSTM融合技术具有较好的性能指标。所提框架通过动态语义特征提取与上下文建模的协同机制,实现客户诉求的细粒度分类和风险点识别,验证基于BERT和BiLSTM的融合模型在电力企业文本类数据处理和应用中的适用性和有效性,为构建自动化数据治理体系提供了更丰富的解决方案。 展开更多
关键词 基于transformer的双向编码器表征(bert) 双向长短时记忆(BiLSTM) 数据治理 客户诉求分类 多模型融合
在线阅读 下载PDF
基于Transformer与多模型融合的学科关键词智能提取与分类研究
14
作者 柯国松 沈亚诚 +2 位作者 朱婷婷 沈贤君 伍君源 《电脑知识与技术》 2025年第35期4-6,共3页
为解决教育电子文档中关键词自动提取与分类的难题,本研究提出了一种基于Transformer与多模型融合的智能处理方法。该方法创新性地整合了传统统计模型(TF-IDF、TextRank)、主题模型(LDA)与多种预训练语言模型(BERT、ERNIE)的优势,以实... 为解决教育电子文档中关键词自动提取与分类的难题,本研究提出了一种基于Transformer与多模型融合的智能处理方法。该方法创新性地整合了传统统计模型(TF-IDF、TextRank)、主题模型(LDA)与多种预训练语言模型(BERT、ERNIE)的优势,以实现对学科关键词的高效提取与精准分类。实验结果表明,经过词典优化的多模型融合方法在准确率(89%)、精确率(96.9%)及F1值等关键指标上均显著优于单一模型。该研究为构建高精度的学科知识自动抽取与组织系统提供了一套可行的、人机结合的解决方案。 展开更多
关键词 关键词提取 transformER bert ERNIE LDA TextRank 融合算法
在线阅读 下载PDF
Enhancing Arabic Sentiment Analysis with Pre-Trained CAMeLBERT:A Case Study on Noisy Texts
15
作者 Fay Aljomah Lama Aldhafeeri +3 位作者 Maha Alfadel Sultanh Alshahrani Qaisar Abbas Sarah Alhumoud 《Computers, Materials & Continua》 2025年第9期5317-5335,共19页
Dialectal Arabic text classifcation(DA-TC)provides a mechanism for performing sentiment analysis on recent Arabic social media leading to many challenges owing to the natural morphology of the Arabic language and its ... Dialectal Arabic text classifcation(DA-TC)provides a mechanism for performing sentiment analysis on recent Arabic social media leading to many challenges owing to the natural morphology of the Arabic language and its wide range of dialect variations.Te availability of annotated datasets is limited,and preprocessing of the noisy content is even more challenging,sometimes resulting in the removal of important cues of sentiment from the input.To overcome such problems,this study investigates the applicability of using transfer learning based on pre-trained transformer models to classify sentiment in Arabic texts with high accuracy.Specifcally,it uses the CAMeLBERT model fnetuned for the Multi-Domain Arabic Resources for Sentiment Analysis(MARSA)dataset containing more than 56,000 manually annotated tweets annotated across political,social,sports,and technology domains.Te proposed method avoids extensive use of preprocessing and shows that raw data provides better results because they tend to retain more linguistic features.Te fne-tuned CAMeLBERT model produces state-of-the-art accuracy of 92%,precision of 91.7%,recall of 92.3%,and F1-score of 91.5%,outperforming standard machine learning models and ensemble-based/deep learning techniques.Our performance comparisons against other pre-trained models,namely AraBERTv02-twitter and MARBERT,show that transformer-based architectures are consistently the best suited when dealing with noisy Arabic texts.Tis work leads to a strong remedy for the problems in Arabic sentiment analysis and provides recommendations on easy tuning of the pre-trained models to adapt to challenging linguistic features and domain-specifc tasks. 展开更多
关键词 Artifcial intelligence deep learning machine learning bert CAMeLbert natural language processing sentiment analysis transformer
在线阅读 下载PDF
Enhancing Multi-Class Cyberbullying Classification with Hybrid Feature Extraction and Transformer-Based Models
16
作者 Suliman Mohamed Fati Mohammed A.Mahdi +4 位作者 Mohamed A.G.Hazber Shahanawaj Ahamad Sawsan A.Saad Mohammed Gamal Ragab Mohammed Al-Shalabi 《Computer Modeling in Engineering & Sciences》 2025年第5期2109-2131,共23页
Cyberbullying on social media poses significant psychological risks,yet most detection systems over-simplify the task by focusing on binary classification,ignoring nuanced categories like passive-aggressive remarks or... Cyberbullying on social media poses significant psychological risks,yet most detection systems over-simplify the task by focusing on binary classification,ignoring nuanced categories like passive-aggressive remarks or indirect slurs.To address this gap,we propose a hybrid framework combining Term Frequency-Inverse Document Frequency(TF-IDF),word-to-vector(Word2Vec),and Bidirectional Encoder Representations from Transformers(BERT)based models for multi-class cyberbullying detection.Our approach integrates TF-IDF for lexical specificity and Word2Vec for semantic relationships,fused with BERT’s contextual embeddings to capture syntactic and semantic complexities.We evaluate the framework on a publicly available dataset of 47,000 annotated social media posts across five cyberbullying categories:age,ethnicity,gender,religion,and indirect aggression.Among BERT variants tested,BERT Base Un-Cased achieved the highest performance with 93%accuracy(standard deviation across±1%5-fold cross-validation)and an average AUC of 0.96,outperforming standalone TF-IDF(78%)and Word2Vec(82%)models.Notably,it achieved near-perfect AUC scores(0.99)for age and ethnicity-based bullying.A comparative analysis with state-of-the-art benchmarks,including Generative Pre-trained Transformer 2(GPT-2)and Text-to-Text Transfer Transformer(T5)models highlights BERT’s superiority in handling ambiguous language.This work advances cyberbullying detection by demonstrating how hybrid feature extraction and transformer models improve multi-class classification,offering a scalable solution for moderating nuanced harmful content. 展开更多
关键词 Cyberbullying classification multi-class classification bert models machine learning TF-IDF Word2Vec social media analysis transformer models
在线阅读 下载PDF
A Hybrid CNN-Transformer Framework for Normal Blood Cell Classification:Towards Automated Hematological Analysis
17
作者 Osama M.Alshehri Ahmad Shaf +7 位作者 Muhammad Irfan Mohammed M.Jalal Malik A.Altayar Mohammed H.Abu-Alghayth Humood Al Shmrany Tariq Ali Toufique A.Soomro Ali G.Alkhathami 《Computer Modeling in Engineering & Sciences》 2025年第7期1165-1196,共32页
Background:Accurate classification of normal blood cells is a critical foundation for automated hematological analysis,including the detection of pathological conditions like leukemia.While convolutional neural networ... Background:Accurate classification of normal blood cells is a critical foundation for automated hematological analysis,including the detection of pathological conditions like leukemia.While convolutional neural networks(CNNs)excel in local feature extraction,their ability to capture global contextual relationships in complex cellular morphologies is limited.This study introduces a hybrid CNN-Transformer framework to enhance normal blood cell classification,laying the groundwork for future leukemia diagnostics.Methods:The proposed architecture integrates pre-trained CNNs(ResNet50,EfficientNetB3,InceptionV3,CustomCNN)with Vision Transformer(ViT)layers to combine local and global feature modeling.Four hybrid models were evaluated on the publicly available Blood Cell Images dataset from Kaggle,comprising 17,092 annotated normal blood cell images across eight classes.The models were trained using transfer learning,fine-tuning,and computational optimizations,including cross-model parameter sharing to reduce redundancy by reusing weights across CNN backbones and attention-guided layer pruning to eliminate low-contribution layers based on attention scores,improving efficiency without sacrificing accuracy.Results:The InceptionV3-ViT model achieved a weighted accuracy of 97.66%(accounting for class imbalance by weighting each class’s contribution),a macro F1-score of 0.98,and a ROC-AUC of 0.998.The framework excelled in distinguishing morphologically similar cell types demonstrating robustness and reliable calibration(ECE of 0.019).The framework addresses generalization challenges,including class imbalance and morphological similarities,ensuring robust performance across diverse cell types.Conclusion:The hybrid CNN-Transformer framework significantly improves normal blood cell classification by capturing multi-scale features and long-range dependencies.Its high accuracy,efficiency,and generalization position it as a strong baseline for automated hematological analysis,with potential for extension to leukemia subtype classification through future validation on pathological samples. 展开更多
关键词 Acute leukemia automated diagnosis blood cell classification convolution neural networks deep learning fine-tuning hematologic malignancy hybrid deep learning architecture leukemia subtype classification medical image analysis transfer learning vision transformers
暂未订购
基于BERT-BiLSTM-CRF的工业控制协议逆向工程
18
作者 连莲 李素敏 +1 位作者 宗学军 何戡 《沈阳工业大学学报》 北大核心 2025年第5期609-616,共8页
【目的】工业控制协议解析是工业互联网安全中的关键环节,但传统方法存在普适性差和准确率低的问题,导致协议解析效率低下,难以满足实际工业场景中对高精度和高适应性解析的需求。【方法】提出一种基于深度学习模型的工业控制协议逆向... 【目的】工业控制协议解析是工业互联网安全中的关键环节,但传统方法存在普适性差和准确率低的问题,导致协议解析效率低下,难以满足实际工业场景中对高精度和高适应性解析的需求。【方法】提出一种基于深度学习模型的工业控制协议逆向解析方法,通过结合BERT预训练模型、双向长短期记忆网络(BiLSTM)和条件随机场(CRF),提升协议解析的普适性和准确率,为工业控制系统的安全分析和漏洞挖掘提供技术支持。首先,利用BERT预训练模型对工业控制协议数据进行动态词向量编码,将协议数据转化为高维向量,以捕捉协议数据的语义信息。BERT预训练模型通过其强大的上下文理解能力,能够有效处理复杂且多样的协议数据。其次,采用双向长短期记忆网络对协议数据之间的关系以及协议数据与标签数据之间的关联性进行建模。双向长短期记忆网络能够捕获协议数据中的长距离依赖关系,从而更好地理解协议的结构和语义。最后,引入条件随机场作为约束条件,对工业控制协议的格式和语义进行最优预测。条件随机场通过引入标签之间的转移概率,进一步提高了预测的准确性和一致性。通过BERT预训练模型、双向长短期记忆网络和条件随机场的结合,实现了对工业控制协议的格式提取和语义分析。此外,本文方法还针对大规模协议数据进行了优化,确保其在处理复杂工业场景时的高效性和稳定性。【结果】针对三种典型工业控制协议展开实验,结果表明本文方法在格式提取和语义分析上的精度均超过96%,较传统方法有所提升,在不同协议上均表现出高适应性和准确性,能够有效识别字段边界与语义信息。【结论】本文方法显著提升了工业控制协议解析的普适性和准确率,为工业控制系统的安全分析提供了可靠的技术支持。未来将进一步优化模型,拓展应用场景,提升方法的实用性。 展开更多
关键词 工业控制协议 协议逆向工程 bert预训练模型 双向长短期记忆网络 条件随机场 词向量 格式提取 语义分析
在线阅读 下载PDF
面向网络文本的BERT心理特质预测研究 被引量:8
19
作者 张晗 贾甜远 +2 位作者 骆方 张生 邬霞 《计算机科学与探索》 CSCD 北大核心 2021年第8期1459-1468,共10页
随着互联网的普及应用,通过网络平台进行表达和交流的用户越来越多,在此过程中不可避免地会留下与个人相关的大量网络文本数据和信息,这些非结构化的文本数据往往体现着不同场景下的真实表达,反映了人们内在的心理特质及人格倾向。利用... 随着互联网的普及应用,通过网络平台进行表达和交流的用户越来越多,在此过程中不可避免地会留下与个人相关的大量网络文本数据和信息,这些非结构化的文本数据往往体现着不同场景下的真实表达,反映了人们内在的心理特质及人格倾向。利用文本挖掘相关技术基于网络文本数据分析心理特质可以弥补传统心理测量方法易受应试动机等因素影响的缺陷。近年来,BERT语言表示模型在文本分类、情感分析等任务上取得了很好的效果。针对网络文本数据构建心理特质预测模型,基于BERT获取完整的上下文语义特征和长距离的上下文依赖关系;同时考虑到分类器内部结构的差异可能会导致不同的分类效果,在下游分类任务中分别采用BERT BASE模型的全连接层和经典的随机森林算法作为两种不同的分类器进行模型效果对比。结果显示,基于BERT的文本分类模型能够有效实现心理特质的预测,平均准确率、平均精准率等各项指标都在97%以上。 展开更多
关键词 bert 心理特质 注意力机制 transformER 文本挖掘
在线阅读 下载PDF
融合语句-实体特征与Bert的中文实体关系抽取模型 被引量:1
20
作者 段俊花 朱怡安 +3 位作者 邵志运 钟冬 张黎翔 史先琛 《微电子学与计算机》 2022年第4期17-23,共7页
关系抽取是信息抽取技术的重要环节,旨在从无结构的文本中抽取出实体之间的关系.目前基于深度学习的实体关系抽取已经取得了一定的成果,但其特征提取不够全面,在各项实验指标方面仍有较大的提升空间.实体关系抽取不同于其他自然语言分... 关系抽取是信息抽取技术的重要环节,旨在从无结构的文本中抽取出实体之间的关系.目前基于深度学习的实体关系抽取已经取得了一定的成果,但其特征提取不够全面,在各项实验指标方面仍有较大的提升空间.实体关系抽取不同于其他自然语言分类和实体识别等任务,它主要依赖于句子和两个目标实体的信息.本文根据实体关系抽取的特点,提出了SEF-BERT关系抽取模型(Fusion Sentence-Entity Features and Bert Model).该模型以预训练BERT模型为基础,文本在经过BERT模型预训练之后,进一步提取语句特征和实体特征.然后对语句特征和实体特征进行融合处理,使融合特征向量能够同时具有语句和两个实体的特征,增强了模型对特征向量的处理能力.最后,分别使用通用领域数据集和医学领域数据集对该模型进行了训练和测试.实验结果表明,与其他已有模型相比,SEF-BERT模型在两个数据集上都有更好的表现. 展开更多
关键词 自然语言处理 关系抽取 深度学习 bert transformER
在线阅读 下载PDF
上一页 1 2 12 下一页 到第
使用帮助 返回顶部