期刊文献+
共找到513篇文章
< 1 2 26 >
每页显示 20 50 100
Optimizing Airline Review Sentiment Analysis:A Comparative Analysis of LLaMA and BERT Models through Fine-Tuning and Few-Shot Learning
1
作者 Konstantinos I.Roumeliotis Nikolaos D.Tselikas Dimitrios K.Nasiopoulos 《Computers, Materials & Continua》 2025年第2期2769-2792,共24页
In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance o... In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance of two advanced models,the Large Language Model(LLM)LLaMA model and NLP BERT model,in the context of airline review sentiment analysis.Through fine-tuning,domain adaptation,and the application of few-shot learning,the study addresses the subtleties of sentiment expressions in airline-related text data.Employing predictive modeling and comparative analysis,the research evaluates the effectiveness of Large Language Model Meta AI(LLaMA)and Bidirectional Encoder Representations from Transformers(BERT)in capturing sentiment intricacies.Fine-tuning,including domain adaptation,enhances the models'performance in sentiment classification tasks.Additionally,the study explores the potential of few-shot learning to improve model generalization using minimal annotated data for targeted sentiment analysis.By conducting experiments on a diverse airline review dataset,the research quantifies the impact of fine-tuning,domain adaptation,and few-shot learning on model performance,providing valuable insights for industries aiming to predict recommendations and enhance customer satisfaction through a deeper understanding of sentiment in user-generated content(UGC).This research contributes to refining sentiment analysis models,ultimately fostering improved customer satisfaction in the airline industry. 展开更多
关键词 Sentiment classification review sentiment analysis user-generated content domain adaptation customer satisfaction LLaMA model bert model airline reviews LLM classification fine-tuning
在线阅读 下载PDF
Ontology-Based BERT Model for Automated Information Extraction from Geological Hazard Reports 被引量:5
2
作者 Kai Ma Miao Tian +3 位作者 Yongjian Tan Qinjun Qiu Zhong Xie Rong Huang 《Journal of Earth Science》 SCIE CAS CSCD 2023年第5期1390-1405,共16页
Geological knowledge can provide support for knowledge discovery, knowledge inference and mineralization predictions of geological big data. Entity identification and relationship extraction from geological data descr... Geological knowledge can provide support for knowledge discovery, knowledge inference and mineralization predictions of geological big data. Entity identification and relationship extraction from geological data description text are the key links for constructing knowledge graphs. Given the lack of publicly annotated datasets in the geology domain, this paper illustrates the construction process of geological entity datasets, defines the types of entities and interconceptual relationships by using the geological entity concept system, and completes the construction of the geological corpus. To address the shortcomings of existing language models(such as Word2vec and Glove) that cannot solve polysemous words and have a poor ability to fuse contexts, we propose a geological named entity recognition and relationship extraction model jointly with Bidirectional Encoder Representation from Transformers(BERT) pretrained language model. To effectively represent the text features, we construct a BERT-bidirectional gated recurrent unit network(BiGRU)-conditional random field(CRF)-based architecture to extract the named entities and the BERT-BiGRU-Attention-based architecture to extract the entity relations. The results show that the F1-score of the BERT-BiGRU-CRF named entity recognition model is 0.91 and the F1-score of the BERT-BiGRU-Attention relationship extraction model is 0.84, which are significant performance improvements when compared to classic language models(e.g., word2vec and Embedding from Language Models(ELMo)). 展开更多
关键词 ONTOLOGY bert model name entity recognition relation extraction knowledge graph
原文传递
Classification of Acupuncture Points Based on the Bert Model*
3
作者 Xi Zhong Yangli Jia +1 位作者 Dekui Li Xiangliang Zhang 《Journal of Data Analysis and Information Processing》 2021年第3期123-135,共13页
In this paper, we explore the multi-classification problem of acupuncture acupoints bas</span><span><span style="font-family:Verdana;">ed on </span><span style="font-family:Ve... In this paper, we explore the multi-classification problem of acupuncture acupoints bas</span><span><span style="font-family:Verdana;">ed on </span><span style="font-family:Verdana;">Bert</span><span style="font-family:Verdana;"> model, </span><i><span style="font-family:Verdana;">i.e.</span></i><span style="font-family:Verdana;">, we try to recommend the best main acupuncture point for treating the disease by classifying and predicting the main acupuncture point for the disease, and further explore its acupuncture point grouping to provide the medical practitioner with the optimal solution for treating the disease and improv</span></span></span><span style="font-family:Verdana;">ing</span><span style="font-family:""><span style="font-family:Verdana;"> the clinical decision-making ability. The Bert-Chinese-Acupoint model was constructed by retraining </span><span style="font-family:Verdana;">on the basis of</span><span style="font-family:Verdana;"> the Bert model, and the semantic features in terms of acupuncture points were added to the acupunctu</span></span><span style="font-family:""><span style="font-family:Verdana;">re point corpus in the fine-tuning process to increase the semantic features in terms of acupuncture </span><span style="font-family:Verdana;">points,</span><span style="font-family:Verdana;"> and compared with the machine learning method. The results show that the Bert-Chinese Acupoint model proposed in this paper has a 3% improvement in accuracy compared to the </span><span style="font-family:Verdana;">best performing</span><span style="font-family:Verdana;"> model in the machine learning approach. 展开更多
关键词 bert model Machine Learning Classification model Comparison
暂未订购
基于BERT和GRU的Web攻击检测模型研究
4
作者 谭攀 王海珍 成雨玫 《齐齐哈尔大学学报(自然科学版)》 2026年第1期30-37,共8页
目前Web攻击日益频繁和复杂,现有入侵检测系统的检测准确率、实时性需要进一步改进。为此,提出一种基于BERT和GRU的Web攻击检测模型BERT_GRU。通过Web攻击检测脚本Scalp进行攻击类型标注,利用预训练的BERT模型对HTTP请求中的文本数据进... 目前Web攻击日益频繁和复杂,现有入侵检测系统的检测准确率、实时性需要进一步改进。为此,提出一种基于BERT和GRU的Web攻击检测模型BERT_GRU。通过Web攻击检测脚本Scalp进行攻击类型标注,利用预训练的BERT模型对HTTP请求中的文本数据进行上下文语义编码、全连接层处理,将获得的数据与原始文本数据拼接,输入GRU网络提取序列特征,输出通过Softmax计算,最终实现多分类。在CSIC 2010数据集和FWAF数据集上的实验结果表明,BERT_GRU模型在准确率、召回率、F1值等评价指标以及训练时间方面均优于对比模型。 展开更多
关键词 Web攻击检测 bert模型 GRU
在线阅读 下载PDF
基于改进BERT的多头自注意力非侵入式负荷分解方法
5
作者 孙晓晴 李元诚 王庆乐 《电力信息与通信技术》 2026年第1期45-54,共10页
针对非侵入式负荷分解方法负荷特征捕捉不足、负荷分解精度不够等问题,文章提出一种基于改进BERT(bidirectional encoder representations from transformers)模型的多头自注意力非侵入式负荷分解方法(frequency and temporal attention... 针对非侵入式负荷分解方法负荷特征捕捉不足、负荷分解精度不够等问题,文章提出一种基于改进BERT(bidirectional encoder representations from transformers)模型的多头自注意力非侵入式负荷分解方法(frequency and temporal attention-BERT, FAT-BERT)。首先通过傅里叶变换将时域数据转换为频域数据,采用多尺度卷积全面捕捉负荷信号的时域和频域特征,从而增强模型对多样化负荷信号的表达能力;其次,在多头自注意力机制中引入频率注意力机制,从而增强模型对时序数据中频率成分的感知能力,进一步改善复杂负荷模式的表示,改进BERT模型中增加局部自注意力从而减少不必要的全局计算,提升模型的运行速度;接着将残差连接和正则化技术结合使模型在训练过程中更加稳定,并且能够更好地避免过拟合,最后在REDD和UK-DALE数据集上对提出的方法进行实验,实验结果验证了所提方法的有效性。 展开更多
关键词 非侵入式负荷监测 负荷分解 改进bert模型 多头自注意力机制 频率注意力
在线阅读 下载PDF
人工智能技术创新如何赋能企业成长——来自BERT模型的证据
6
作者 何小钢 毛莘娅 《财经问题研究》 北大核心 2026年第1期44-58,共15页
人工智能技术创新是促进新质生产力发展的关键,对于推动高质量发展具有重要意义。本文利用双向编码器表示模型识别人工智能专利,以刻画企业人工智能技术创新水平,并基于2012-2022年中国A股上市公司数据,利用双向固定效应模型实证检验了... 人工智能技术创新是促进新质生产力发展的关键,对于推动高质量发展具有重要意义。本文利用双向编码器表示模型识别人工智能专利,以刻画企业人工智能技术创新水平,并基于2012-2022年中国A股上市公司数据,利用双向固定效应模型实证检验了人工智能技术创新对企业成长的影响及作用机制。研究结果显示:人工智能技术创新能够促进企业成长,且该结论在经过一系列内生性检验和稳健性检验后仍成立;人工智能技术创新通过创新溢出效应、降本增效效应、产品竞争效应和人力资本质量效应促进企业成长;人工智能技术创新对企业成长的促进作用发生在高管受教育程度较高企业、较年轻的高管团队企业、吸收能力较强的企业、劳动密集型行业企业、技术密集型行业企业中。本文研究拓宽了人工智能技术创新对微观企业经济效应的研究范围,为中国人工智能技术创新的政策制定和企业数智化战略决策提供了启示。 展开更多
关键词 人工智能技术创新 企业成长 bert模型
在线阅读 下载PDF
基于Stroke BERT的中风知识图谱与智能诊疗研究
7
作者 于惠 祖红月 +1 位作者 王卫东 刘洪运 《计算机技术与发展》 2026年第2期126-131,共6页
为促进中医精准医疗发展,本研究聚焦中风病,构建了“领域自适应预训练—跨模态知识对齐—混合增强推理”框架。首先,基于中医文献与病历构建Stroke BERT预训练模型,采用动态全词掩码增强中医隐喻语义表征。实验表明,Stroke BERT在中医... 为促进中医精准医疗发展,本研究聚焦中风病,构建了“领域自适应预训练—跨模态知识对齐—混合增强推理”框架。首先,基于中医文献与病历构建Stroke BERT预训练模型,采用动态全词掩码增强中医隐喻语义表征。实验表明,Stroke BERT在中医特异性任务上显著优于通用BERT(F 1值达83.24%和98.15%),有效提升信息提取精度。其次,构建中西医融合中风知识图谱,通过BERT-INT模型实现中西医实体对齐,突破语义壁垒。在此基础上,提出KG-LLM协同推理架构,通过动态提示工程将知识图谱路径与GLM-4模型深度耦合。在Stroke QA和Stroke CQ数据集上,该架构的诊断符合率分别提升至59.05%和78.10%,较独立大语言模型显著提高(分别提升10.48和7.62百分点),实现了诊疗可解释性与准确性的双重提升。为中医知识图谱构建提供了领域适配方法,为多模态医学数据融合与智能诊疗提供了创新技术支撑。 展开更多
关键词 中风 Stroke bert 知识图谱 大语言模型 智能诊疗
在线阅读 下载PDF
基于BERT模型的微博文本细粒度情感分析
8
作者 张逸民 李野 《现代信息科技》 2026年第4期112-115,121,共5页
随着社交媒体的快速发展,微博作为用户信息交流与情感表达的重要平台,积累了海量丰富的文本数据。文章在调研微博情感分析相关技术的基础上,提出一种基于BERT模型的细粒度情感分析方法,结合微博数据抓取与预处理技术,构建了高效的分析... 随着社交媒体的快速发展,微博作为用户信息交流与情感表达的重要平台,积累了海量丰富的文本数据。文章在调研微博情感分析相关技术的基础上,提出一种基于BERT模型的细粒度情感分析方法,结合微博数据抓取与预处理技术,构建了高效的分析框架。该方法通过微博开放API完成数据采集,利用BERT预训练模型实现文本向量化,并依托Transformer架构完成愤怒、高兴、中性、惊讶、悲伤、恐惧六类情绪的精准分类;同时引入情感词典与数据增强技术提升模型性能,借助可视化工具展示分析结果。研究表明,该方法在SMP2020数据集上取得了较高的分类精度,为微博文本细粒度情感分析提供了新思路。 展开更多
关键词 微博情感分析 细粒度情感 bert模型 社交媒体
在线阅读 下载PDF
基于BERT大语言模型的广东省人工智能发明专利测度与时空演化特征
9
作者 陈奕嘉 谭俊涛 杨瑞霖 《热带地理》 北大核心 2026年第1期154-166,共13页
在人工智能(AI)日益成为推动区域高质量发展的关键技术背景下,如何科学测度AI技术活动的空间分布和演化趋势,成为经济地理学研究的重要议题。然而,现有的识别方法在语义有效性、识别精度以及覆盖广度等方面仍存在不足,有待进一步提升与... 在人工智能(AI)日益成为推动区域高质量发展的关键技术背景下,如何科学测度AI技术活动的空间分布和演化趋势,成为经济地理学研究的重要议题。然而,现有的识别方法在语义有效性、识别精度以及覆盖广度等方面仍存在不足,有待进一步提升与完善。为此,文章以广东省2001-2021年约120万条授权发明专利摘要为基础,引入BERT大语言模型,构建基于语义理解的AI授权发明专利识别方法,识别出约20万条AI发明专利文本。在此基础上,结合BERTopic主题建模方法,进一步揭示AI发明专利在广东省的关注领域与动态演化特征。研究发现:1)2001-2021年广东省AI发明专利数量整体经历了缓慢增长和快速扩张2个阶段,AI发明专利占比则呈持续上升趋势,反映AI技术在区域创新体系中的重要性不断提升。2)空间分布方面,AI发明专利在大湾区高度集聚,深圳和广州2市占全省AI发明专利的75.1%,珠海和东莞两地在AI发明专利占比上亦显示出较强活力。在合作网络方面,广东省AI发明专利合作网络呈现显著的“核心―边缘”结构特征,城市间在合作网络中的地位差异明显。3)在技术内容上,广东省AI发明专利主要聚焦于数据与图像处理、机器人与自动化装置、智能交通与故障检测、智能家居与环境控制和生物模拟与图像分析五大主题,不同主题的演化节奏存在差异,其中图像处理技术最为活跃,机器人和智能交通等领域近年来快速增长。此外,广东省内不同城市在AI发明专利布局上也各具特色,形成了差异化的技术优势。 展开更多
关键词 人工智能 AI发明专利 bert大语言模型 主题建模 技术演化 合作网络 广东省
在线阅读 下载PDF
基金经理语调、基金收益与投资者行为——基于BERT人工智能模型的检验 被引量:2
10
作者 沈红波 洪康隆 王锴 《现代金融研究》 北大核心 2025年第4期20-38,共19页
本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传... 本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传统的词袋法,BERT人工智能模型度量的基金经理语调更能识别基金经理的真情实感,对基金未来收益、顺境中的基金业绩持续性及逆境中的基金崩盘风险的预测效果更好,且上述识别优势在复杂度较高、可读性较差的“展望”文本中更显著;(2)个人投资者的“有限理性”特征和公募基金存在的委托代理问题导致个人投资者更容易被基金经理“词藻堆砌”的文本所吸引,进而导致投资收益率降低。本文将BERT人工智能模型引入财经文本情感分析,为文本语调的度量方法提供了新思路。 展开更多
关键词 基金经理语调 基金收益 投资者行为 bert模型
在线阅读 下载PDF
基于BERT和图注意力网络的医疗文本因果关系抽取算法
11
作者 刘位龙 王玎 +6 位作者 赵超 王宁 张旭 苏萍 宋书典 张娜 迟蔚蔚 《山东大学学报(医学版)》 北大核心 2025年第8期61-68,共8页
目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention network... 目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention networks,CGAT)的BERT-CGAT算法。首先构建因果关系图,利用医疗文本对BERT模型进行微调,以获得优化的实体嵌入表示;随后通过知识融合通道整合文本编码信息与因果结构,输入至图注意力网络;采用多头注意力机制并行处理不同子空间信息,增强复杂语义关系捕捉能力;最后通过双通道解码层实现实体及因果关系的同步抽取。结果在自建的糖尿病因果实体数据集上的实验表明,模型在准确率(99.74%)与召回率(81.04%)上较传统BiLSTM-CRF基线提升0.65%和16.73%,F1分数达80.83%。结论BERT-CGAT算法通过结合BERT的语义特征提取能力和图神经网络的关系建模优势,有效提升了医疗文本因果关系抽取的准确性,验证了该方法的有效性。 展开更多
关键词 医疗文本 bert模型 图注意力网络 因果关系抽取
原文传递
基于BERT并融合法律事件信息的罪名预测方法
12
作者 邱一卉 喻瑶瑶 《厦门大学学报(自然科学版)》 北大核心 2025年第4期642-652,共11页
[目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事... [目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事件信息的罪名预测模型,通过利用法律事件信息为模型提供更多的法律案件特征,提升模型对案件的理解,从而提升罪名预测的表现.[方法]首先训练了一个全局上层事件类型信息增强的法律事件检测模型,利用其对案情描述中的法律事件类型进行检测,并在此基础上构建法律事件类型序列.其次,利用双向长短期记忆模型(BiLSTM)对法律事件类型序列进行编码获取法律事件信息,并将法律事件信息与经过BERT编码后的案情描述的语义表示拼接融合,最后利用一层全连接层对罪名进行预测.[结果]在公开的刑事案件数据集CAIL2018-small上的实验结果表明,相比于领域内的其他基线模型,本文提出的模型在各个关键指标上具备更好的性能,即在Mac.F_(1)上平均提升3.12个百分点,在Mac.P上平均提升1.94个百分点,在Mac.R上平均提升3.53个百分点.[结论]验证了法律事件信息在增强模型对案件理解方面的有效性,从而提高罪名预测的准确性. 展开更多
关键词 AI&Law bert模型 罪名预测 法律事件信息
在线阅读 下载PDF
基于BERT和知识图谱的武器装备问答系统
13
作者 王博 蒋序平 黄启鸿 《指挥控制与仿真》 2025年第3期99-103,共5页
武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命... 武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命名实体生成查询语句,通过答句模板生成问题答案。分析测试结果表明,该系统能够有效地将正确答案排在前列,且在准确性和全面性之间达到了较好的平衡,但仍有一定的改进空间。 展开更多
关键词 知识图谱 bert模型 武器装备
在线阅读 下载PDF
基于LDA和BERT模型的网络舆情监测实验平台设计
14
作者 郭毅 涂婧璐 《武汉工程职业技术学院学报》 2025年第4期32-39,55,共9页
当前网络已经成为公众发表个人意见、态度和情绪的重要场所,而无序的互联网环境容易将某些言论放大,形成具有负面影响的网络舆情事件,而通过监测识别与干预,引导失控的网络舆论回到正轨,避免恶劣影响是网络舆情监测的主要任务,也是学生... 当前网络已经成为公众发表个人意见、态度和情绪的重要场所,而无序的互联网环境容易将某些言论放大,形成具有负面影响的网络舆情事件,而通过监测识别与干预,引导失控的网络舆论回到正轨,避免恶劣影响是网络舆情监测的主要任务,也是学生课程学习应具备的技能。基于OBE理念设计了网络舆情监测实验平台,通过LDA主题模型挖掘文本深层语义信息并结合词频统计,对评论文本进行主题标识,通过BERT预训练模型对评论内容进行情感极性分类,以实现舆情大数据的主题挖掘和情感分类,培养学生具备有效跟踪热点舆情、分析公众的情绪变化倾向、对舆情的发展演化趋势进行评估预判并提出合理化建议的能力。 展开更多
关键词 舆情监测 LDA模型 bert模型 网络舆情 网络传播
在线阅读 下载PDF
基于自注意力机制的BERT文本情感分析模型
15
作者 朱珍元 苏喻 《海南师范大学学报(自然科学版)》 2025年第3期281-288,共8页
在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情... 在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情感分析模型:BERTBLSTM-Attention。该模型通过综合利用BERT的预训练能力、BLSTM和自注意力机制,增强对文本情感的理解和分析。首先,BERT模型被用于将输入的文本数据表示为高维特征向量。BERT作为一种强大的预训练模型,能够捕捉到丰富的语义信息和上下文特征,为后续的模型提供基础输入。在这一阶段,BERT的双向编码能力使模型可以从上下文中提取出更多细腻的语义信息,这对于情感分析至关重要。然后,在BLSTM层之后引入多头自注意力机制。自注意力机制的加入,使得模型可以在处理输入序列时,更加关注文本中重要的部分,通过动态分配权重来强化这些关键特征的作用。最后,模型在输出层使用SoftMax函数进行文本情感分类。在这一阶段,基于收集到的特征,模型能够生成每种情感类别的概率分布,为情感分类提供输出。在进行有效分类的同时,模型也展示了出色的泛化能力。实验发现,引入自注意力机制的BLSTM模型的准确率比未引入自注意力机制的BLSTM模型高1.8%,比未使用BERT模型的准确率高0.9%,充分说明了本文模型在语言特征提取方面的有效性。 展开更多
关键词 bert模型 文本情感分析 自注意力机制
在线阅读 下载PDF
Enhancing Multi-Class Cyberbullying Classification with Hybrid Feature Extraction and Transformer-Based Models
16
作者 Suliman Mohamed Fati Mohammed A.Mahdi +4 位作者 Mohamed A.G.Hazber Shahanawaj Ahamad Sawsan A.Saad Mohammed Gamal Ragab Mohammed Al-Shalabi 《Computer Modeling in Engineering & Sciences》 2025年第5期2109-2131,共23页
Cyberbullying on social media poses significant psychological risks,yet most detection systems over-simplify the task by focusing on binary classification,ignoring nuanced categories like passive-aggressive remarks or... Cyberbullying on social media poses significant psychological risks,yet most detection systems over-simplify the task by focusing on binary classification,ignoring nuanced categories like passive-aggressive remarks or indirect slurs.To address this gap,we propose a hybrid framework combining Term Frequency-Inverse Document Frequency(TF-IDF),word-to-vector(Word2Vec),and Bidirectional Encoder Representations from Transformers(BERT)based models for multi-class cyberbullying detection.Our approach integrates TF-IDF for lexical specificity and Word2Vec for semantic relationships,fused with BERT’s contextual embeddings to capture syntactic and semantic complexities.We evaluate the framework on a publicly available dataset of 47,000 annotated social media posts across five cyberbullying categories:age,ethnicity,gender,religion,and indirect aggression.Among BERT variants tested,BERT Base Un-Cased achieved the highest performance with 93%accuracy(standard deviation across±1%5-fold cross-validation)and an average AUC of 0.96,outperforming standalone TF-IDF(78%)and Word2Vec(82%)models.Notably,it achieved near-perfect AUC scores(0.99)for age and ethnicity-based bullying.A comparative analysis with state-of-the-art benchmarks,including Generative Pre-trained Transformer 2(GPT-2)and Text-to-Text Transfer Transformer(T5)models highlights BERT’s superiority in handling ambiguous language.This work advances cyberbullying detection by demonstrating how hybrid feature extraction and transformer models improve multi-class classification,offering a scalable solution for moderating nuanced harmful content. 展开更多
关键词 Cyberbullying classification multi-class classification bert models machine learning TF-IDF Word2Vec social media analysis transformer models
在线阅读 下载PDF
面向中文小样本命名实体识别的BERT优化方法 被引量:2
17
作者 杨三和 赖沛超 +3 位作者 傅仰耿 王一蕾 叶飞扬 张林 《小型微型计算机系统》 北大核心 2025年第3期602-611,共10页
为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于... 为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于提示学习与对比学习的BERT预训练策略.在提示学习阶段,设计掩码填充模板来训练BERT预测出每个标记对应的中文标签词.在对比学习阶段,利用引导模板训练BERT学习每个标记和标签词之间的相似性与差异性.其次,针对中文缺乏明确的词边界所带来的复杂性和挑战性,修改BERT模型的第一层Transformer结构,并设计了一种带有混合权重引导器的特征融合模块,将词典信息集成到BERT底层中.最后,实验结果验证了所提方法在中文小样本NER任务中的有效性与优越性.该方法结合BERT和条件随机场(CRF)结构,在4个采样的中文NER数据集上取得了最好的性能.特别是在Weibo数据集的3个小样本场景下,模型的F 1值分别达到了63.78%、66.27%、70.90%,与其他方法相比,平均F 1值分别提高了16.28%、14.30%、11.20%.此外,将ProConBERT应用到多个基于BERT的中文NER模型中能进一步提升实体识别的性能. 展开更多
关键词 中文小样本命名实体识别 提示学习 对比学习 预训练 特征融合 bert模型
在线阅读 下载PDF
Masked Sentence Model Based on BERT for Move Recognition in Medical Scientific Abstracts 被引量:24
18
作者 Gaihong Yu Zhixiong Zhang +1 位作者 Huan Liu Liangping Ding 《Journal of Data and Information Science》 CSCD 2019年第4期42-55,共14页
Purpose:Mo ve recognition in scientific abstracts is an NLP task of classifying sentences of the abstracts into different types of language units.To improve the performance of move recognition in scientific abstracts,... Purpose:Mo ve recognition in scientific abstracts is an NLP task of classifying sentences of the abstracts into different types of language units.To improve the performance of move recognition in scientific abstracts,a novel model of move recognition is proposed that outperforms the BERT-based method.Design/methodology/approach:Prevalent models based on BERT for sentence classification often classify sentences without considering the context of the sentences.In this paper,inspired by the BERT masked language model(MLM),we propose a novel model called the masked sentence model that integrates the content and contextual information of the sentences in move recognition.Experiments are conducted on the benchmark dataset PubMed 20K RCT in three steps.Then,we compare our model with HSLN-RNN,BERT-based and SciBERT using the same dataset.Findings:Compared with the BERT-based and SciBERT models,the F1 score of our model outperforms them by 4.96%and 4.34%,respectively,which shows the feasibility and effectiveness of the novel model and the result of our model comes closest to the state-of-theart results of HSLN-RNN at present.Research limitations:The sequential features of move labels are not considered,which might be one of the reasons why HSLN-RNN has better performance.Our model is restricted to dealing with biomedical English literature because we use a dataset from PubMed,which is a typical biomedical database,to fine-tune our model.Practical implications:The proposed model is better and simpler in identifying move structures in scientific abstracts and is worthy of text classification experiments for capturing contextual features of sentences.Originality/value:T he study proposes a masked sentence model based on BERT that considers the contextual features of the sentences in abstracts in a new way.The performance of this classification model is significantly improved by rebuilding the input layer without changing the structure of neural networks. 展开更多
关键词 Move recognition bert Masked sentence model Scientific abstracts
在线阅读 下载PDF
基于融合评价指标BERT-RGCN的油田评价区块调整措施推荐方法
19
作者 王梅 朱晓丽 +2 位作者 孙洪国 王海艳 濮御 《东北石油大学学报》 北大核心 2025年第5期110-120,I0008,共12页
为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价... 为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价区块及措施之间的交互信息构建异构图,利用BERT模型生成评价指标、评价区块及措施术语词向量,共同作为输入词向量,将融合评价指标信息的异构图和输入词向量放入RGCN模型训练,学习评价区块的有效表征;在某油田评价区块提供的数据集上进行实验对比。结果表明:EI-BERT-RGCN方法能够捕捉文本中隐含的复杂语义并缓解数据稀疏问题,能更好理解未观察到的评价指标与调整措施之间的潜在关系,提升节点的表示质量。EI-BERT-RGCN模型在精确率、召回率、F_(1)分数及ROC曲线下面积等评价指标上优于其他基准模型,在保持较高精确率的同时,展现更好的泛化能力和鲁棒性。该结果为油田评价区块调整措施推荐提供参考。 展开更多
关键词 异构图 变换器双向编码(bert) 预训练模型 关系图卷积神经网络(RGCN) 推荐算法 措施推荐 油田评价区块
在线阅读 下载PDF
基于BERT的多特征融合中文命名实体识别 被引量:2
20
作者 孙璐冰 康怡琳 +1 位作者 王俊 朱容波 《中南民族大学学报(自然科学版)》 CAS 2025年第1期68-74,共7页
针对中文命名实体识别往往需要引入外部知识获取深层语义信息,以及基于RNN结构的模型对空间特征提取效果不佳等问题,提出了基于BERT的多特征融合中文命名实体识别模型.通过BERT模型获取输入文本序列的深层次语义信息,利用MHSA模块和IDCN... 针对中文命名实体识别往往需要引入外部知识获取深层语义信息,以及基于RNN结构的模型对空间特征提取效果不佳等问题,提出了基于BERT的多特征融合中文命名实体识别模型.通过BERT模型获取输入文本序列的深层次语义信息,利用MHSA模块和IDCNN模块增强特征提取能力.前者利用相对位置编码和多头自注意力机制来捕获输入序列的隐藏特征,使模型能够考虑到字符间的距离方向信息;后者则可以对空间特征建模,获得输入序列的全局信息.通过将两个模块的输出特征进行连接,增强模型性能.实验结果表明:模型在MSRA、Resume和Weibo三个公共数据集上的F1值分别达到了95.12%、95.45%和66.14%,优于其它最新模型,验证了模型在中文命名实体识别上的有效性. 展开更多
关键词 自然语言处理 中文命名实体识别 bert模型 迭代膨胀卷积神经网络 自注意力
在线阅读 下载PDF
上一页 1 2 26 下一页 到第
使用帮助 返回顶部