期刊文献+
共找到531篇文章
< 1 2 27 >
每页显示 20 50 100
Optimizing Airline Review Sentiment Analysis:A Comparative Analysis of LLaMA and BERT Models through Fine-Tuning and Few-Shot Learning
1
作者 Konstantinos I.Roumeliotis Nikolaos D.Tselikas Dimitrios K.Nasiopoulos 《Computers, Materials & Continua》 2025年第2期2769-2792,共24页
In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance o... In the rapidly evolving landscape of natural language processing(NLP)and sentiment analysis,improving the accuracy and efficiency of sentiment classification models is crucial.This paper investigates the performance of two advanced models,the Large Language Model(LLM)LLaMA model and NLP BERT model,in the context of airline review sentiment analysis.Through fine-tuning,domain adaptation,and the application of few-shot learning,the study addresses the subtleties of sentiment expressions in airline-related text data.Employing predictive modeling and comparative analysis,the research evaluates the effectiveness of Large Language Model Meta AI(LLaMA)and Bidirectional Encoder Representations from Transformers(BERT)in capturing sentiment intricacies.Fine-tuning,including domain adaptation,enhances the models'performance in sentiment classification tasks.Additionally,the study explores the potential of few-shot learning to improve model generalization using minimal annotated data for targeted sentiment analysis.By conducting experiments on a diverse airline review dataset,the research quantifies the impact of fine-tuning,domain adaptation,and few-shot learning on model performance,providing valuable insights for industries aiming to predict recommendations and enhance customer satisfaction through a deeper understanding of sentiment in user-generated content(UGC).This research contributes to refining sentiment analysis models,ultimately fostering improved customer satisfaction in the airline industry. 展开更多
关键词 Sentiment classification review sentiment analysis user-generated content domain adaptation customer satisfaction LLaMA model bert model airline reviews LLM classification fine-tuning
在线阅读 下载PDF
Ontology-Based BERT Model for Automated Information Extraction from Geological Hazard Reports 被引量:5
2
作者 Kai Ma Miao Tian +3 位作者 Yongjian Tan Qinjun Qiu Zhong Xie Rong Huang 《Journal of Earth Science》 SCIE CAS CSCD 2023年第5期1390-1405,共16页
Geological knowledge can provide support for knowledge discovery, knowledge inference and mineralization predictions of geological big data. Entity identification and relationship extraction from geological data descr... Geological knowledge can provide support for knowledge discovery, knowledge inference and mineralization predictions of geological big data. Entity identification and relationship extraction from geological data description text are the key links for constructing knowledge graphs. Given the lack of publicly annotated datasets in the geology domain, this paper illustrates the construction process of geological entity datasets, defines the types of entities and interconceptual relationships by using the geological entity concept system, and completes the construction of the geological corpus. To address the shortcomings of existing language models(such as Word2vec and Glove) that cannot solve polysemous words and have a poor ability to fuse contexts, we propose a geological named entity recognition and relationship extraction model jointly with Bidirectional Encoder Representation from Transformers(BERT) pretrained language model. To effectively represent the text features, we construct a BERT-bidirectional gated recurrent unit network(BiGRU)-conditional random field(CRF)-based architecture to extract the named entities and the BERT-BiGRU-Attention-based architecture to extract the entity relations. The results show that the F1-score of the BERT-BiGRU-CRF named entity recognition model is 0.91 and the F1-score of the BERT-BiGRU-Attention relationship extraction model is 0.84, which are significant performance improvements when compared to classic language models(e.g., word2vec and Embedding from Language Models(ELMo)). 展开更多
关键词 ONTOLOGY bert model name entity recognition relation extraction knowledge graph
原文传递
Classification of Acupuncture Points Based on the Bert Model*
3
作者 Xi Zhong Yangli Jia +1 位作者 Dekui Li Xiangliang Zhang 《Journal of Data Analysis and Information Processing》 2021年第3期123-135,共13页
In this paper, we explore the multi-classification problem of acupuncture acupoints bas</span><span><span style="font-family:Verdana;">ed on </span><span style="font-family:Ve... In this paper, we explore the multi-classification problem of acupuncture acupoints bas</span><span><span style="font-family:Verdana;">ed on </span><span style="font-family:Verdana;">Bert</span><span style="font-family:Verdana;"> model, </span><i><span style="font-family:Verdana;">i.e.</span></i><span style="font-family:Verdana;">, we try to recommend the best main acupuncture point for treating the disease by classifying and predicting the main acupuncture point for the disease, and further explore its acupuncture point grouping to provide the medical practitioner with the optimal solution for treating the disease and improv</span></span></span><span style="font-family:Verdana;">ing</span><span style="font-family:""><span style="font-family:Verdana;"> the clinical decision-making ability. The Bert-Chinese-Acupoint model was constructed by retraining </span><span style="font-family:Verdana;">on the basis of</span><span style="font-family:Verdana;"> the Bert model, and the semantic features in terms of acupuncture points were added to the acupunctu</span></span><span style="font-family:""><span style="font-family:Verdana;">re point corpus in the fine-tuning process to increase the semantic features in terms of acupuncture </span><span style="font-family:Verdana;">points,</span><span style="font-family:Verdana;"> and compared with the machine learning method. The results show that the Bert-Chinese Acupoint model proposed in this paper has a 3% improvement in accuracy compared to the </span><span style="font-family:Verdana;">best performing</span><span style="font-family:Verdana;"> model in the machine learning approach. 展开更多
关键词 bert model Machine Learning Classification model Comparison
暂未订购
基于改进型BERT预训练模型的大规模文本语义匹配方法
4
作者 周晓飞 《西昌学院学报(自然科学版)》 2026年第1期84-92,102,共10页
大规模文本数据具有数据量庞大的特点,且同一词汇在不同语境下可能具有完全不同的含义。仅依赖固定规则或模型,难以适应动态的语义变化,这会导致信息丢失和语义不完整。在这种情况下,无法捕捉到深层次的语义信息和语境关系,进而影响语... 大规模文本数据具有数据量庞大的特点,且同一词汇在不同语境下可能具有完全不同的含义。仅依赖固定规则或模型,难以适应动态的语义变化,这会导致信息丢失和语义不完整。在这种情况下,无法捕捉到深层次的语义信息和语境关系,进而影响语义匹配的准确性。为解决这一问题,本文提出基于改进型双向编码器表征(bidirectional encoder representations from transformers,BERT)模型的大规模文本语义匹配方法。该改进的BERT预训练模型通过文本词向量的位置编码来增强文本的语境信息特征,从而有效捕捉文本的语境信息。此外,采用注意力机制动态计算特征融合权重,并通过加权融合方法生成文本的融合语义特征。通过文本特征信息提取、多维知识编码、融合语义标签生成以及语义匹配关系预测4个步骤,评估待匹配文本之间的语义一致性。本文设定一致性阈值为0.8,即当预测值超过0.8时,认为待匹配文本具有较高的语义一致性,从而实现准确的文本语义匹配。实验结果表明,基于大规模文本样本数据得到的平均倒数排名(mean reciprocal rank,MRR)高于0.7,且与对比方法相比,匹配结果更加准确。 展开更多
关键词 改进型bert预训练模型 融合特征 位置编码 文本向量化 注意力机制 语义匹配
在线阅读 下载PDF
人工智能技术创新如何赋能企业成长——来自BERT模型的证据 被引量:2
5
作者 何小钢 毛莘娅 《财经问题研究》 北大核心 2026年第1期44-58,共15页
人工智能技术创新是促进新质生产力发展的关键,对于推动高质量发展具有重要意义。本文利用双向编码器表示模型识别人工智能专利,以刻画企业人工智能技术创新水平,并基于2012-2022年中国A股上市公司数据,利用双向固定效应模型实证检验了... 人工智能技术创新是促进新质生产力发展的关键,对于推动高质量发展具有重要意义。本文利用双向编码器表示模型识别人工智能专利,以刻画企业人工智能技术创新水平,并基于2012-2022年中国A股上市公司数据,利用双向固定效应模型实证检验了人工智能技术创新对企业成长的影响及作用机制。研究结果显示:人工智能技术创新能够促进企业成长,且该结论在经过一系列内生性检验和稳健性检验后仍成立;人工智能技术创新通过创新溢出效应、降本增效效应、产品竞争效应和人力资本质量效应促进企业成长;人工智能技术创新对企业成长的促进作用发生在高管受教育程度较高企业、较年轻的高管团队企业、吸收能力较强的企业、劳动密集型行业企业、技术密集型行业企业中。本文研究拓宽了人工智能技术创新对微观企业经济效应的研究范围,为中国人工智能技术创新的政策制定和企业数智化战略决策提供了启示。 展开更多
关键词 人工智能技术创新 企业成长 bert模型
在线阅读 下载PDF
基于BERT微调与特征融合的在线日志异常检测方法
6
作者 彭思源 齐金鹏 +2 位作者 戴理 夏奕麒 成晨 《重庆邮电大学学报(自然科学版)》 北大核心 2026年第1期128-136,共9页
针对日志异常检测中快速性和检测精度难以协同优化的问题,提出了一种基于双向编码器表征模型微调与多特征融合的在线日志异常检测方法(log triple feature representation using BERT,LogTri-BERT)。设计了一种双阶段处理架构,通过TinyB... 针对日志异常检测中快速性和检测精度难以协同优化的问题,提出了一种基于双向编码器表征模型微调与多特征融合的在线日志异常检测方法(log triple feature representation using BERT,LogTri-BERT)。设计了一种双阶段处理架构,通过TinyBERT微调实现离线阶段日志语义的深度表征学习,利用多路搜索树(ternary search tree,TST)和滑动窗口机制,提取在线阶段的事件突变点密度特征,融合时序信息与语义嵌入特征形成联合表征向量,最终通过XGBoost(extreme gradient boosting)分类器实现高效判别。实验结果表明,LogTri-BERT在公开基准数据集上的分类速度和准确性均优于基线方法。 展开更多
关键词 日志分析 bert模型 TST算法 日志异常检测
在线阅读 下载PDF
融合提示工程与BERT-LSTM模型的“卡脖子”替代技术识别
7
作者 仵轩 李广建 +1 位作者 王楚涵 潘佳立 《图书馆论坛》 北大核心 2026年第3期135-147,共13页
针对“卡脖子”技术研究存在替代技术识别机制缺失与技术要素解析精度不足等局限,文章提出融合提示工程与BERT-LSTM模型的“卡脖子”替代技术识别方法。首先,基于商业管制清单(Commercial Control List,CCL)对ECCN物项进行解析,并开展... 针对“卡脖子”技术研究存在替代技术识别机制缺失与技术要素解析精度不足等局限,文章提出融合提示工程与BERT-LSTM模型的“卡脖子”替代技术识别方法。首先,基于商业管制清单(Commercial Control List,CCL)对ECCN物项进行解析,并开展专利检索工作,通过SPC算法提取技术主路径的关键核心专利;其次,运用大语言模型提示工程抽取“问题-方案对”,借此解析技术功效,并结合功能导向搜索(Function-Oriented Search,FOS)初步查找可能具备技术替代功效的相关专利;再次,采用BERT-LSTM模型对专利文本实施二元分类,精准识别出具备技术替代功效的专利样本;通过提示工程抽取“方案-类别对”,系统识别替代技术方案;最后,建立科学-产业双维度评估体系完成替代技术潜力分级。文章以光刻技术为例,阐述该识别方法的应用流程,系统识别出极紫外(Extreme Ultra-violet,EUV)光刻技术的五种替代技术及其替代潜力。 展开更多
关键词 “卡脖子”技术 替代技术 提示工程 bert-LSTM模型 光刻技术
在线阅读 下载PDF
基于BERT和GRU的Web攻击检测模型研究
8
作者 谭攀 王海珍 成雨玫 《齐齐哈尔大学学报(自然科学版)》 2026年第1期30-37,共8页
目前Web攻击日益频繁和复杂,现有入侵检测系统的检测准确率、实时性需要进一步改进。为此,提出一种基于BERT和GRU的Web攻击检测模型BERT_GRU。通过Web攻击检测脚本Scalp进行攻击类型标注,利用预训练的BERT模型对HTTP请求中的文本数据进... 目前Web攻击日益频繁和复杂,现有入侵检测系统的检测准确率、实时性需要进一步改进。为此,提出一种基于BERT和GRU的Web攻击检测模型BERT_GRU。通过Web攻击检测脚本Scalp进行攻击类型标注,利用预训练的BERT模型对HTTP请求中的文本数据进行上下文语义编码、全连接层处理,将获得的数据与原始文本数据拼接,输入GRU网络提取序列特征,输出通过Softmax计算,最终实现多分类。在CSIC 2010数据集和FWAF数据集上的实验结果表明,BERT_GRU模型在准确率、召回率、F1值等评价指标以及训练时间方面均优于对比模型。 展开更多
关键词 Web攻击检测 bert模型 GRU
在线阅读 下载PDF
基于改进BERT的多头自注意力非侵入式负荷分解方法
9
作者 孙晓晴 李元诚 王庆乐 《电力信息与通信技术》 2026年第1期45-54,共10页
针对非侵入式负荷分解方法负荷特征捕捉不足、负荷分解精度不够等问题,文章提出一种基于改进BERT(bidirectional encoder representations from transformers)模型的多头自注意力非侵入式负荷分解方法(frequency and temporal attention... 针对非侵入式负荷分解方法负荷特征捕捉不足、负荷分解精度不够等问题,文章提出一种基于改进BERT(bidirectional encoder representations from transformers)模型的多头自注意力非侵入式负荷分解方法(frequency and temporal attention-BERT, FAT-BERT)。首先通过傅里叶变换将时域数据转换为频域数据,采用多尺度卷积全面捕捉负荷信号的时域和频域特征,从而增强模型对多样化负荷信号的表达能力;其次,在多头自注意力机制中引入频率注意力机制,从而增强模型对时序数据中频率成分的感知能力,进一步改善复杂负荷模式的表示,改进BERT模型中增加局部自注意力从而减少不必要的全局计算,提升模型的运行速度;接着将残差连接和正则化技术结合使模型在训练过程中更加稳定,并且能够更好地避免过拟合,最后在REDD和UK-DALE数据集上对提出的方法进行实验,实验结果验证了所提方法的有效性。 展开更多
关键词 非侵入式负荷监测 负荷分解 改进bert模型 多头自注意力机制 频率注意力
在线阅读 下载PDF
基于BERT模型的多语种谣言识别研究
10
作者 曲春来 高敏洁 +5 位作者 李一飞 董苏雅拉图 曹正鑫 袁媛 阿雅娜 徐琳琳 《计算机工程与应用》 北大核心 2026年第6期160-170,共11页
目前跨语言环境中的谣言传播面临巨大挑战,现有方法在处理多语言数据时存在局限,难以有效捕获不同语言间的语义信息。为应对这一挑战,提出了一种基于BERT模型的多语种谣言识别方法,将基于语言特性的数据增强技术与预训练模型相结合,解... 目前跨语言环境中的谣言传播面临巨大挑战,现有方法在处理多语言数据时存在局限,难以有效捕获不同语言间的语义信息。为应对这一挑战,提出了一种基于BERT模型的多语种谣言识别方法,将基于语言特性的数据增强技术与预训练模型相结合,解决多语言环境下的谣言识别问题。该方法利用BERT出色的上下文语义捕捉能力,并结合针对不同语言特点设计的数据增强策略,有效缓解了翻译转换过程中产生的语义偏差。在中文、英文、法文等多语种疫情相关数据集上的实验评估表明,该方法在准确率、精确率、召回率和F1-score等多个评价指标上均优于传统机器学习方法及其他深度学习模型(如CNN和RNN)。还在小语种与多领域数据集上验证了模型在不同情景下的泛化能力。此外,对BERT模型注意力机制的可视化分析进一步验证了其在捕捉谣言文本关键信息方面的优势。不仅为跨语言信息环境下的谣言检测提供了一种有效的技术方案,也为小语种语言及动态谣言检测问题的进一步研究奠定了基础。 展开更多
关键词 多语种 bert模型 谣言识别 数据增强 深度学习
在线阅读 下载PDF
基于CoalBERT模型的煤矿安全隐患智能分类研究
11
作者 李泽荃 陈豪斌 +1 位作者 赵嘉良 刘飞翔 《中国矿业》 北大核心 2026年第3期257-264,共8页
在各类信息化平台的飞速发展之下,煤矿行业已经广泛采用了各类信息化平台来优化运营和提升安全生产水平。这些平台帮助煤矿企业实现了大量相关数据的积累与管理,但煤矿安全隐患文本数据的语义复杂性和领域专业性使得这些数据无法得到有... 在各类信息化平台的飞速发展之下,煤矿行业已经广泛采用了各类信息化平台来优化运营和提升安全生产水平。这些平台帮助煤矿企业实现了大量相关数据的积累与管理,但煤矿安全隐患文本数据的语义复杂性和领域专业性使得这些数据无法得到有效利用。为此,本文依据2022版《煤矿安全规程》,定义了17个一级隐患类别和109个二级隐患类别,作为煤矿安全隐患数据的样本标签体系,构建了一套系统的煤矿安全隐患分类方法,并利用CoalBERT预训练语言模型对煤矿安全隐患文本数据进行双层类别体系的文本分类,同时以BERT模型作为参照进行对比分析。该模型通过引入领域术语掩码语言建模(DP-MLM)和句子顺序预测(SOP)任务,解决了通用模型在煤矿安全领域对专业术语(如“锚杆支护”“瓦斯抽采”)的语义理解不足和对隐患描述文本中逻辑连贯性有限的两大局限性。模型训练在PyTorch框架下进行,通过设定学习率和迭代次数,并使用随机梯度下降法进行优化。研究结果表明:CoalBERT模型在煤矿安全隐患分类任务中表现出色。在一级类别分类实验中,CoalBERT模型在精准率、召回率和F1值上均高于BERT模型,分别提高了0.34%、0.21%和0.27%。在二级类别分类实验中,CoalBERT模型的F1值平均提高了3%~5%,最高分类效果可达97.75%。特别是在“矿井建设”“冲击地压防治”和“隐患排查”等类别上,CoalBERT模型展现出显著优势。由此可知,基于CoalBERT预训练语言模型的煤矿安全隐患分类算法在任务上表现出色,能够成为煤矿安全管理工作的重要辅助工具,对提升煤矿安全管理水平和预防事故发生提供有力支持。 展开更多
关键词 自然语言处理 文本分类 Coalbert模型 煤矿安全隐患 bert模型
在线阅读 下载PDF
基于Stroke BERT的中风知识图谱与智能诊疗研究
12
作者 于惠 祖红月 +1 位作者 王卫东 刘洪运 《计算机技术与发展》 2026年第2期126-131,共6页
为促进中医精准医疗发展,本研究聚焦中风病,构建了“领域自适应预训练—跨模态知识对齐—混合增强推理”框架。首先,基于中医文献与病历构建Stroke BERT预训练模型,采用动态全词掩码增强中医隐喻语义表征。实验表明,Stroke BERT在中医... 为促进中医精准医疗发展,本研究聚焦中风病,构建了“领域自适应预训练—跨模态知识对齐—混合增强推理”框架。首先,基于中医文献与病历构建Stroke BERT预训练模型,采用动态全词掩码增强中医隐喻语义表征。实验表明,Stroke BERT在中医特异性任务上显著优于通用BERT(F 1值达83.24%和98.15%),有效提升信息提取精度。其次,构建中西医融合中风知识图谱,通过BERT-INT模型实现中西医实体对齐,突破语义壁垒。在此基础上,提出KG-LLM协同推理架构,通过动态提示工程将知识图谱路径与GLM-4模型深度耦合。在Stroke QA和Stroke CQ数据集上,该架构的诊断符合率分别提升至59.05%和78.10%,较独立大语言模型显著提高(分别提升10.48和7.62百分点),实现了诊疗可解释性与准确性的双重提升。为中医知识图谱构建提供了领域适配方法,为多模态医学数据融合与智能诊疗提供了创新技术支撑。 展开更多
关键词 中风 Stroke bert 知识图谱 大语言模型 智能诊疗
在线阅读 下载PDF
基于BERT模型的矿山智能安全管理分析系统
13
作者 柳凯木 隋昕宇 《自动化应用》 2026年第4期269-271,276,共4页
矿山安全生产是保障矿业可持续发展的关键环节,但传统管理模式在文本处理与风险识别方面存在不足。结合基于Transformer的双向编码器表征(BERT)预训练语言模型,构建了一套面向矿山场景的智能安全管理系统,实现多源安全文本的深度语义理... 矿山安全生产是保障矿业可持续发展的关键环节,但传统管理模式在文本处理与风险识别方面存在不足。结合基于Transformer的双向编码器表征(BERT)预训练语言模型,构建了一套面向矿山场景的智能安全管理系统,实现多源安全文本的深度语义理解与风险精准识别。系统通过差异化采集与标准化预处理整合隐患报告和检查记录,结合领域自适应预训练与任务微调策略,并嵌入分类与情感分析模块,形成数据输入到风险预警的端到端闭环。实验表明,该系统在真实矿山数据集上整体分类准确率达92.7%,高风险召回率为95.8%,单条文本平均处理时间为287 ms,显著优于传统方法。研究验证了BERT在矿山安全文本分析中的有效性,并为安全管理的智能化转型提供了可行路径。 展开更多
关键词 bert模型 矿山安全 智能分析 文本分类 风险识别 深度学习
在线阅读 下载PDF
基于BERT模型的微博文本细粒度情感分析
14
作者 张逸民 李野 《现代信息科技》 2026年第4期112-115,121,共5页
随着社交媒体的快速发展,微博作为用户信息交流与情感表达的重要平台,积累了海量丰富的文本数据。文章在调研微博情感分析相关技术的基础上,提出一种基于BERT模型的细粒度情感分析方法,结合微博数据抓取与预处理技术,构建了高效的分析... 随着社交媒体的快速发展,微博作为用户信息交流与情感表达的重要平台,积累了海量丰富的文本数据。文章在调研微博情感分析相关技术的基础上,提出一种基于BERT模型的细粒度情感分析方法,结合微博数据抓取与预处理技术,构建了高效的分析框架。该方法通过微博开放API完成数据采集,利用BERT预训练模型实现文本向量化,并依托Transformer架构完成愤怒、高兴、中性、惊讶、悲伤、恐惧六类情绪的精准分类;同时引入情感词典与数据增强技术提升模型性能,借助可视化工具展示分析结果。研究表明,该方法在SMP2020数据集上取得了较高的分类精度,为微博文本细粒度情感分析提供了新思路。 展开更多
关键词 微博情感分析 细粒度情感 bert模型 社交媒体
在线阅读 下载PDF
基于BERT大语言模型的广东省人工智能发明专利测度与时空演化特征
15
作者 陈奕嘉 谭俊涛 杨瑞霖 《热带地理》 北大核心 2026年第1期154-166,共13页
在人工智能(AI)日益成为推动区域高质量发展的关键技术背景下,如何科学测度AI技术活动的空间分布和演化趋势,成为经济地理学研究的重要议题。然而,现有的识别方法在语义有效性、识别精度以及覆盖广度等方面仍存在不足,有待进一步提升与... 在人工智能(AI)日益成为推动区域高质量发展的关键技术背景下,如何科学测度AI技术活动的空间分布和演化趋势,成为经济地理学研究的重要议题。然而,现有的识别方法在语义有效性、识别精度以及覆盖广度等方面仍存在不足,有待进一步提升与完善。为此,文章以广东省2001-2021年约120万条授权发明专利摘要为基础,引入BERT大语言模型,构建基于语义理解的AI授权发明专利识别方法,识别出约20万条AI发明专利文本。在此基础上,结合BERTopic主题建模方法,进一步揭示AI发明专利在广东省的关注领域与动态演化特征。研究发现:1)2001-2021年广东省AI发明专利数量整体经历了缓慢增长和快速扩张2个阶段,AI发明专利占比则呈持续上升趋势,反映AI技术在区域创新体系中的重要性不断提升。2)空间分布方面,AI发明专利在大湾区高度集聚,深圳和广州2市占全省AI发明专利的75.1%,珠海和东莞两地在AI发明专利占比上亦显示出较强活力。在合作网络方面,广东省AI发明专利合作网络呈现显著的“核心―边缘”结构特征,城市间在合作网络中的地位差异明显。3)在技术内容上,广东省AI发明专利主要聚焦于数据与图像处理、机器人与自动化装置、智能交通与故障检测、智能家居与环境控制和生物模拟与图像分析五大主题,不同主题的演化节奏存在差异,其中图像处理技术最为活跃,机器人和智能交通等领域近年来快速增长。此外,广东省内不同城市在AI发明专利布局上也各具特色,形成了差异化的技术优势。 展开更多
关键词 人工智能 AI发明专利 bert大语言模型 主题建模 技术演化 合作网络 广东省
在线阅读 下载PDF
基金经理语调、基金收益与投资者行为——基于BERT人工智能模型的检验 被引量:3
16
作者 沈红波 洪康隆 王锴 《现代金融研究》 北大核心 2025年第4期20-38,共19页
本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传... 本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传统的词袋法,BERT人工智能模型度量的基金经理语调更能识别基金经理的真情实感,对基金未来收益、顺境中的基金业绩持续性及逆境中的基金崩盘风险的预测效果更好,且上述识别优势在复杂度较高、可读性较差的“展望”文本中更显著;(2)个人投资者的“有限理性”特征和公募基金存在的委托代理问题导致个人投资者更容易被基金经理“词藻堆砌”的文本所吸引,进而导致投资收益率降低。本文将BERT人工智能模型引入财经文本情感分析,为文本语调的度量方法提供了新思路。 展开更多
关键词 基金经理语调 基金收益 投资者行为 bert模型
在线阅读 下载PDF
基于BERT-BiLSTM模型的DeepSeek用户生成内容情感分析与主题挖掘
17
作者 张宝生 张冰 范丽君 《中国软科学》 北大核心 2025年第S1期352-363,共12页
DeepSeek作为国产AIGC应用新秀,凭借强大的语言处理和多任务执行能力,吸引大量用户参与使用与测评的同时,也给AIGC治理提出了新的挑战。对DeepSeek用户生成内容进行情感分析与主题挖掘,能够为研发人员优化产品、政府制定相关监管政策等... DeepSeek作为国产AIGC应用新秀,凭借强大的语言处理和多任务执行能力,吸引大量用户参与使用与测评的同时,也给AIGC治理提出了新的挑战。对DeepSeek用户生成内容进行情感分析与主题挖掘,能够为研发人员优化产品、政府制定相关监管政策等提供参考建议。爬取微博平台用户评论数据,构建BERT-BiLSTM混合模型对DeepSeek用户生成内容进行情感分析;结合LDA模型识别用户对DeepSeek的核心关注点。结果表明:BERT-BiLSTM情感分析模型表现优异,能够有效感知大众对DeepSeek的情感倾向;LDA主题分析结果表明用户主要关心DeepSeek在内容创作、学术辅助、情感交流和技术辅助方面上的应用;结合情感—主题研究发现,DeepSeek用户情感分布呈现显著的主题依赖性,中立情感以对DeepSeek功能的理性需求为主;赞扬和惊喜类生产内容可归纳为功能应用、情感陪伴及发展前景等;担忧和焦虑类主题可归纳为技术替代、职业危机与社会焦虑等;愤怒与失望类主题可归纳为服务体验、信任程度等。研究结果为相关部门制定新一代人工智能技术应用规范,及企业和用户合理优化及使用人工智能产品提供参考。 展开更多
关键词 DeepSeek 用户生成内容 情感分析 主题挖掘 bert-BiLSTM模型
在线阅读 下载PDF
基于BERT和图注意力网络的医疗文本因果关系抽取算法
18
作者 刘位龙 王玎 +6 位作者 赵超 王宁 张旭 苏萍 宋书典 张娜 迟蔚蔚 《山东大学学报(医学版)》 北大核心 2025年第8期61-68,共8页
目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention network... 目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention networks,CGAT)的BERT-CGAT算法。首先构建因果关系图,利用医疗文本对BERT模型进行微调,以获得优化的实体嵌入表示;随后通过知识融合通道整合文本编码信息与因果结构,输入至图注意力网络;采用多头注意力机制并行处理不同子空间信息,增强复杂语义关系捕捉能力;最后通过双通道解码层实现实体及因果关系的同步抽取。结果在自建的糖尿病因果实体数据集上的实验表明,模型在准确率(99.74%)与召回率(81.04%)上较传统BiLSTM-CRF基线提升0.65%和16.73%,F1分数达80.83%。结论BERT-CGAT算法通过结合BERT的语义特征提取能力和图神经网络的关系建模优势,有效提升了医疗文本因果关系抽取的准确性,验证了该方法的有效性。 展开更多
关键词 医疗文本 bert模型 图注意力网络 因果关系抽取
原文传递
基于BERT并融合法律事件信息的罪名预测方法
19
作者 邱一卉 喻瑶瑶 《厦门大学学报(自然科学版)》 北大核心 2025年第4期642-652,共11页
[目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事... [目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事件信息的罪名预测模型,通过利用法律事件信息为模型提供更多的法律案件特征,提升模型对案件的理解,从而提升罪名预测的表现.[方法]首先训练了一个全局上层事件类型信息增强的法律事件检测模型,利用其对案情描述中的法律事件类型进行检测,并在此基础上构建法律事件类型序列.其次,利用双向长短期记忆模型(BiLSTM)对法律事件类型序列进行编码获取法律事件信息,并将法律事件信息与经过BERT编码后的案情描述的语义表示拼接融合,最后利用一层全连接层对罪名进行预测.[结果]在公开的刑事案件数据集CAIL2018-small上的实验结果表明,相比于领域内的其他基线模型,本文提出的模型在各个关键指标上具备更好的性能,即在Mac.F_(1)上平均提升3.12个百分点,在Mac.P上平均提升1.94个百分点,在Mac.R上平均提升3.53个百分点.[结论]验证了法律事件信息在增强模型对案件理解方面的有效性,从而提高罪名预测的准确性. 展开更多
关键词 AI&Law bert模型 罪名预测 法律事件信息
在线阅读 下载PDF
基于BERT和知识图谱的武器装备问答系统
20
作者 王博 蒋序平 黄启鸿 《指挥控制与仿真》 2025年第3期99-103,共5页
武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命... 武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命名实体生成查询语句,通过答句模板生成问题答案。分析测试结果表明,该系统能够有效地将正确答案排在前列,且在准确性和全面性之间达到了较好的平衡,但仍有一定的改进空间。 展开更多
关键词 知识图谱 bert模型 武器装备
在线阅读 下载PDF
上一页 1 2 27 下一页 到第
使用帮助 返回顶部