期刊文献+
共找到1,909篇文章
< 1 2 96 >
每页显示 20 50 100
基于BERT-PMI的胜任力人才需求特征分析系统构建与应用
1
作者 张建桃 林筱芸 +1 位作者 唐洁雯 韦婷婷 《计算机教育》 2026年第1期121-128,共8页
针对人才供需错配问题,提出构建一个胜任力人才需求特征分析系统,具体阐述如何通过结合BERT模型的语义理解能力和PMI算法的关联分析能力,实现对人才需求的细粒度、动态化分析,以计算机类专业为例,说明该分析方法的有效性,为高校优化人... 针对人才供需错配问题,提出构建一个胜任力人才需求特征分析系统,具体阐述如何通过结合BERT模型的语义理解能力和PMI算法的关联分析能力,实现对人才需求的细粒度、动态化分析,以计算机类专业为例,说明该分析方法的有效性,为高校优化人才培养方案提供数据支持,对缓解人才供需错配问题具有重要实践意义。 展开更多
关键词 人才需求特征分析 计算机 胜任力 bert模型 PMI
在线阅读 下载PDF
ACtriplet:An improved deep learning model for activity cliffs prediction by integrating triplet loss and pre-training 被引量:1
2
作者 Xinxin Yu Yimeng Wang +3 位作者 Long Chen Weihua Li Yun Tang Guixia Liu 《Journal of Pharmaceutical Analysis》 2025年第8期1837-1847,共11页
Activity cliffs(ACs)are generally defined as pairs of similar compounds that only differ by a minor structural modification but exhibit a large difference in their binding affinity for a given target.ACs offer crucial... Activity cliffs(ACs)are generally defined as pairs of similar compounds that only differ by a minor structural modification but exhibit a large difference in their binding affinity for a given target.ACs offer crucial insights that aid medicinal chemists in optimizing molecular structures.Nonetheless,they also form a major source of prediction error in structure-activity relationship(SAR)models.To date,several studies have demonstrated that deep neural networks based on molecular images or graphs might need to be improved further in predicting the potency of ACs.In this paper,we integrated the triplet loss in face recognition with pre-training strategy to develop a prediction model ACtriplet,tailored for ACs.Through extensive comparison with multiple baseline models on 30 benchmark datasets,the results showed that ACtriplet was significantly better than those deep learning(DL)models without pretraining.In addition,we explored the effect of pre-training on data representation.Finally,the case study demonstrated that our model's interpretability module could explain the prediction results reasonably.In the dilemma that the amount of data could not be increased rapidly,this innovative framework would better make use of the existing data,which would propel the potential of DL in the early stage of drug discovery and optimization. 展开更多
关键词 Activity cliff Triplet loss Deep learning pre-training
暂未订购
基于Stroke BERT的中风知识图谱与智能诊疗研究
3
作者 于惠 祖红月 +1 位作者 王卫东 刘洪运 《计算机技术与发展》 2026年第2期126-131,共6页
为促进中医精准医疗发展,本研究聚焦中风病,构建了“领域自适应预训练—跨模态知识对齐—混合增强推理”框架。首先,基于中医文献与病历构建Stroke BERT预训练模型,采用动态全词掩码增强中医隐喻语义表征。实验表明,Stroke BERT在中医... 为促进中医精准医疗发展,本研究聚焦中风病,构建了“领域自适应预训练—跨模态知识对齐—混合增强推理”框架。首先,基于中医文献与病历构建Stroke BERT预训练模型,采用动态全词掩码增强中医隐喻语义表征。实验表明,Stroke BERT在中医特异性任务上显著优于通用BERT(F 1值达83.24%和98.15%),有效提升信息提取精度。其次,构建中西医融合中风知识图谱,通过BERT-INT模型实现中西医实体对齐,突破语义壁垒。在此基础上,提出KG-LLM协同推理架构,通过动态提示工程将知识图谱路径与GLM-4模型深度耦合。在Stroke QA和Stroke CQ数据集上,该架构的诊断符合率分别提升至59.05%和78.10%,较独立大语言模型显著提高(分别提升10.48和7.62百分点),实现了诊疗可解释性与准确性的双重提升。为中医知识图谱构建提供了领域适配方法,为多模态医学数据融合与智能诊疗提供了创新技术支撑。 展开更多
关键词 中风 Stroke bert 知识图谱 大语言模型 智能诊疗
在线阅读 下载PDF
基于BERT和GRU的Web攻击检测模型研究
4
作者 谭攀 王海珍 成雨玫 《齐齐哈尔大学学报(自然科学版)》 2026年第1期30-37,共8页
目前Web攻击日益频繁和复杂,现有入侵检测系统的检测准确率、实时性需要进一步改进。为此,提出一种基于BERT和GRU的Web攻击检测模型BERT_GRU。通过Web攻击检测脚本Scalp进行攻击类型标注,利用预训练的BERT模型对HTTP请求中的文本数据进... 目前Web攻击日益频繁和复杂,现有入侵检测系统的检测准确率、实时性需要进一步改进。为此,提出一种基于BERT和GRU的Web攻击检测模型BERT_GRU。通过Web攻击检测脚本Scalp进行攻击类型标注,利用预训练的BERT模型对HTTP请求中的文本数据进行上下文语义编码、全连接层处理,将获得的数据与原始文本数据拼接,输入GRU网络提取序列特征,输出通过Softmax计算,最终实现多分类。在CSIC 2010数据集和FWAF数据集上的实验结果表明,BERT_GRU模型在准确率、召回率、F1值等评价指标以及训练时间方面均优于对比模型。 展开更多
关键词 Web攻击检测 bert模型 GRU
在线阅读 下载PDF
基于改进BERT的多头自注意力非侵入式负荷分解方法
5
作者 孙晓晴 李元诚 王庆乐 《电力信息与通信技术》 2026年第1期45-54,共10页
针对非侵入式负荷分解方法负荷特征捕捉不足、负荷分解精度不够等问题,文章提出一种基于改进BERT(bidirectional encoder representations from transformers)模型的多头自注意力非侵入式负荷分解方法(frequency and temporal attention... 针对非侵入式负荷分解方法负荷特征捕捉不足、负荷分解精度不够等问题,文章提出一种基于改进BERT(bidirectional encoder representations from transformers)模型的多头自注意力非侵入式负荷分解方法(frequency and temporal attention-BERT, FAT-BERT)。首先通过傅里叶变换将时域数据转换为频域数据,采用多尺度卷积全面捕捉负荷信号的时域和频域特征,从而增强模型对多样化负荷信号的表达能力;其次,在多头自注意力机制中引入频率注意力机制,从而增强模型对时序数据中频率成分的感知能力,进一步改善复杂负荷模式的表示,改进BERT模型中增加局部自注意力从而减少不必要的全局计算,提升模型的运行速度;接着将残差连接和正则化技术结合使模型在训练过程中更加稳定,并且能够更好地避免过拟合,最后在REDD和UK-DALE数据集上对提出的方法进行实验,实验结果验证了所提方法的有效性。 展开更多
关键词 非侵入式负荷监测 负荷分解 改进bert模型 多头自注意力机制 频率注意力
在线阅读 下载PDF
人工智能技术创新如何赋能企业成长——来自BERT模型的证据
6
作者 何小钢 毛莘娅 《财经问题研究》 北大核心 2026年第1期44-58,共15页
人工智能技术创新是促进新质生产力发展的关键,对于推动高质量发展具有重要意义。本文利用双向编码器表示模型识别人工智能专利,以刻画企业人工智能技术创新水平,并基于2012-2022年中国A股上市公司数据,利用双向固定效应模型实证检验了... 人工智能技术创新是促进新质生产力发展的关键,对于推动高质量发展具有重要意义。本文利用双向编码器表示模型识别人工智能专利,以刻画企业人工智能技术创新水平,并基于2012-2022年中国A股上市公司数据,利用双向固定效应模型实证检验了人工智能技术创新对企业成长的影响及作用机制。研究结果显示:人工智能技术创新能够促进企业成长,且该结论在经过一系列内生性检验和稳健性检验后仍成立;人工智能技术创新通过创新溢出效应、降本增效效应、产品竞争效应和人力资本质量效应促进企业成长;人工智能技术创新对企业成长的促进作用发生在高管受教育程度较高企业、较年轻的高管团队企业、吸收能力较强的企业、劳动密集型行业企业、技术密集型行业企业中。本文研究拓宽了人工智能技术创新对微观企业经济效应的研究范围,为中国人工智能技术创新的政策制定和企业数智化战略决策提供了启示。 展开更多
关键词 人工智能技术创新 企业成长 bert模型
在线阅读 下载PDF
融合BERT编码层的多粒度语义方面级情感分析模型
7
作者 徐凯 池明得 +2 位作者 王崎 李建州 张辉 《应用科学学报》 北大核心 2026年第1期149-165,共17页
方面级情感分析旨在识别文本中针对特定方面的情感倾向,然而现有研究仍面临多重挑战:基于BERT的方面级情感分析研究存在语义过拟合、低层级语义利用不足的问题;自注意力机制存在局部信息丢失的问题;多编码层和多粒度语义的结构存在信息... 方面级情感分析旨在识别文本中针对特定方面的情感倾向,然而现有研究仍面临多重挑战:基于BERT的方面级情感分析研究存在语义过拟合、低层级语义利用不足的问题;自注意力机制存在局部信息丢失的问题;多编码层和多粒度语义的结构存在信息冗余问题。为此,提出一种融合BERT编码层的多粒度语义方面级情感分析模型(multi-granular semantic aspect-based sentiment analysis model with fusion of BERT encoding layers,MSBEL)。具体地,引入金字塔注意力机制,利用各个编码层的语义特征,并结合低层编码器以降低过拟合;通过多尺度门控卷积增强模型处理局部信息丢失的能力;使用余弦注意力突出与方面词相关的情感特征,从而减少信息冗余。t-SNE的可视化分析表明,MSBEL的情感表示聚类效果优于BERT。此外,在多个基准数据集上将本文模型与主流模型的性能进行了对比,结果显示:与LCF-BERT相比,本文模型在5个数据集上的F1分别提升了1.53%、3.94%、1.39%、6.68%、5.97%;与SenticGCN相比,本文模型的F1平均提升0.94%,最大提升2.12%;与ABSA-DeBERTa相比,本文模型的F1平均提升1.16%,最大提升4.20%,验证了本文模型在方面级情感分析任务上的有效性和优越性。 展开更多
关键词 方面级情感分析 多粒度 bert 金字塔注意力机制 多尺度门控卷积单元
在线阅读 下载PDF
基于BERT大语言模型的广东省人工智能发明专利测度与时空演化特征
8
作者 陈奕嘉 谭俊涛 杨瑞霖 《热带地理》 北大核心 2026年第1期154-166,共13页
在人工智能(AI)日益成为推动区域高质量发展的关键技术背景下,如何科学测度AI技术活动的空间分布和演化趋势,成为经济地理学研究的重要议题。然而,现有的识别方法在语义有效性、识别精度以及覆盖广度等方面仍存在不足,有待进一步提升与... 在人工智能(AI)日益成为推动区域高质量发展的关键技术背景下,如何科学测度AI技术活动的空间分布和演化趋势,成为经济地理学研究的重要议题。然而,现有的识别方法在语义有效性、识别精度以及覆盖广度等方面仍存在不足,有待进一步提升与完善。为此,文章以广东省2001-2021年约120万条授权发明专利摘要为基础,引入BERT大语言模型,构建基于语义理解的AI授权发明专利识别方法,识别出约20万条AI发明专利文本。在此基础上,结合BERTopic主题建模方法,进一步揭示AI发明专利在广东省的关注领域与动态演化特征。研究发现:1)2001-2021年广东省AI发明专利数量整体经历了缓慢增长和快速扩张2个阶段,AI发明专利占比则呈持续上升趋势,反映AI技术在区域创新体系中的重要性不断提升。2)空间分布方面,AI发明专利在大湾区高度集聚,深圳和广州2市占全省AI发明专利的75.1%,珠海和东莞两地在AI发明专利占比上亦显示出较强活力。在合作网络方面,广东省AI发明专利合作网络呈现显著的“核心―边缘”结构特征,城市间在合作网络中的地位差异明显。3)在技术内容上,广东省AI发明专利主要聚焦于数据与图像处理、机器人与自动化装置、智能交通与故障检测、智能家居与环境控制和生物模拟与图像分析五大主题,不同主题的演化节奏存在差异,其中图像处理技术最为活跃,机器人和智能交通等领域近年来快速增长。此外,广东省内不同城市在AI发明专利布局上也各具特色,形成了差异化的技术优势。 展开更多
关键词 人工智能 AI发明专利 bert大语言模型 主题建模 技术演化 合作网络 广东省
在线阅读 下载PDF
基于BERT-BiLSTM-CRF的罗汉果病虫害知识图谱的构建
9
作者 石炼 熊顺 +1 位作者 李博 李东晖 《农业装备与车辆工程》 2026年第1期131-138,共8页
为解决罗汉果病虫害防治领域知识零散、缺乏语义关联的问题,提出了一种基于BERT-BiLSTM-CRF的混合模型用于知识图谱构建。为验证模型在罗汉果病虫害语料上的适应性与有效性,分别对BERT-BiLSTM-CRF、BiLSTM-CRF与LSTM-CRF三种模型开展了... 为解决罗汉果病虫害防治领域知识零散、缺乏语义关联的问题,提出了一种基于BERT-BiLSTM-CRF的混合模型用于知识图谱构建。为验证模型在罗汉果病虫害语料上的适应性与有效性,分别对BERT-BiLSTM-CRF、BiLSTM-CRF与LSTM-CRF三种模型开展了对比实验。实验结果表明,BERT-BiLSTM-CRF模型在实体识别任务中的准确率P、召回率R与F1值分别达到95.12%、92.48%与93.22%,显著优于其他对比模型,充分证明了其在领域知识抽取中的有效性。基于该模型所构建的罗汉果病虫害知识图谱共涵盖13类639个实体与11类845条语义关系,实现了对病虫害防治知识的结构化组织与关联化表达,为后续智能诊断与决策支持系统奠定了可靠的数据基础。 展开更多
关键词 罗汉果 病虫害 bert-BiLSTM-CRF 命名实体识别 知识图谱
在线阅读 下载PDF
Enhancing Arabic Sentiment Analysis with Pre-Trained CAMeLBERT:A Case Study on Noisy Texts
10
作者 Fay Aljomah Lama Aldhafeeri +3 位作者 Maha Alfadel Sultanh Alshahrani Qaisar Abbas Sarah Alhumoud 《Computers, Materials & Continua》 2025年第9期5317-5335,共19页
Dialectal Arabic text classifcation(DA-TC)provides a mechanism for performing sentiment analysis on recent Arabic social media leading to many challenges owing to the natural morphology of the Arabic language and its ... Dialectal Arabic text classifcation(DA-TC)provides a mechanism for performing sentiment analysis on recent Arabic social media leading to many challenges owing to the natural morphology of the Arabic language and its wide range of dialect variations.Te availability of annotated datasets is limited,and preprocessing of the noisy content is even more challenging,sometimes resulting in the removal of important cues of sentiment from the input.To overcome such problems,this study investigates the applicability of using transfer learning based on pre-trained transformer models to classify sentiment in Arabic texts with high accuracy.Specifcally,it uses the CAMeLBERT model fnetuned for the Multi-Domain Arabic Resources for Sentiment Analysis(MARSA)dataset containing more than 56,000 manually annotated tweets annotated across political,social,sports,and technology domains.Te proposed method avoids extensive use of preprocessing and shows that raw data provides better results because they tend to retain more linguistic features.Te fne-tuned CAMeLBERT model produces state-of-the-art accuracy of 92%,precision of 91.7%,recall of 92.3%,and F1-score of 91.5%,outperforming standard machine learning models and ensemble-based/deep learning techniques.Our performance comparisons against other pre-trained models,namely AraBERTv02-twitter and MARBERT,show that transformer-based architectures are consistently the best suited when dealing with noisy Arabic texts.Tis work leads to a strong remedy for the problems in Arabic sentiment analysis and provides recommendations on easy tuning of the pre-trained models to adapt to challenging linguistic features and domain-specifc tasks. 展开更多
关键词 Artifcial intelligence deep learning machine learning bert CAMeLbert natural language processing sentiment analysis transformer
在线阅读 下载PDF
基于BERT模型的校园安全隐患智能分类推荐系统研究
11
作者 吴灏 《现代信息科技》 2026年第1期111-116,共6页
校园安全管理系统在隐患登记环节通常面临分类体系复杂、操作效率低下等问题,严重影响使用效果和数据质量。文章以上海某区校园安全隐患分类标准为例,针对传统分类方式存在的查找困难、误判率高等问题,提出一种基于BERT模型的隐患分类... 校园安全管理系统在隐患登记环节通常面临分类体系复杂、操作效率低下等问题,严重影响使用效果和数据质量。文章以上海某区校园安全隐患分类标准为例,针对传统分类方式存在的查找困难、误判率高等问题,提出一种基于BERT模型的隐患分类智能推荐方法。系统利用预训练语言模型对安全隐患描述进行语义向量化,并通过与标准分类向量计算相似度,实现隐患类别的自动推荐。在200多项标准分类中,系统平均响应时间低于0.2 s,准确率达77.5%,该环节效率提升500%以上,单次隐患登记整体时间减少42%。实验结果表明,该方法显著优化了隐患登记流程,提升了分类准确率和用户使用积极性,为校园安全管理的智能化提供了有力支持。 展开更多
关键词 校园安全 bert 隐患分类 ONNX 自然语言处理
在线阅读 下载PDF
基于BERT模型的微博文本细粒度情感分析
12
作者 张逸民 李野 《现代信息科技》 2026年第4期112-115,121,共5页
随着社交媒体的快速发展,微博作为用户信息交流与情感表达的重要平台,积累了海量丰富的文本数据。文章在调研微博情感分析相关技术的基础上,提出一种基于BERT模型的细粒度情感分析方法,结合微博数据抓取与预处理技术,构建了高效的分析... 随着社交媒体的快速发展,微博作为用户信息交流与情感表达的重要平台,积累了海量丰富的文本数据。文章在调研微博情感分析相关技术的基础上,提出一种基于BERT模型的细粒度情感分析方法,结合微博数据抓取与预处理技术,构建了高效的分析框架。该方法通过微博开放API完成数据采集,利用BERT预训练模型实现文本向量化,并依托Transformer架构完成愤怒、高兴、中性、惊讶、悲伤、恐惧六类情绪的精准分类;同时引入情感词典与数据增强技术提升模型性能,借助可视化工具展示分析结果。研究表明,该方法在SMP2020数据集上取得了较高的分类精度,为微博文本细粒度情感分析提供了新思路。 展开更多
关键词 微博情感分析 细粒度情感 bert模型 社交媒体
在线阅读 下载PDF
Context-Aware Spam Detection Using BERT Embeddings with Multi-Window CNNs
13
作者 Sajid Ali Qazi Mazhar Ul Haq +3 位作者 Ala Saleh Alluhaidan Muhammad Shahid Anwar Sadique Ahmad Leila Jamel 《Computer Modeling in Engineering & Sciences》 2026年第1期1296-1310,共15页
Spam emails remain one of the most persistent threats to digital communication,necessitating effective detection solutions that safeguard both individuals and organisations.We propose a spam email classification frame... Spam emails remain one of the most persistent threats to digital communication,necessitating effective detection solutions that safeguard both individuals and organisations.We propose a spam email classification frame-work that uses Bidirectional Encoder Representations from Transformers(BERT)for contextual feature extraction and a multiple-window Convolutional Neural Network(CNN)for classification.To identify semantic nuances in email content,BERT embeddings are used,and CNN filters extract discriminative n-gram patterns at various levels of detail,enabling accurate spam identification.The proposed model outperformed Word2Vec-based baselines on a sample of 5728 labelled emails,achieving an accuracy of 98.69%,AUC of 0.9981,F1 Score of 0.9724,and MCC of 0.9639.With a medium kernel size of(6,9)and compact multi-window CNN architectures,it improves performance.Cross-validation illustrates stability and generalization across folds.By balancing high recall with minimal false positives,our method provides a reliable and scalable solution for current spam detection in advanced deep learning.By combining contextual embedding and a neural architecture,this study develops a security analysis method. 展开更多
关键词 E-mail spam detection bert embedding text classification CYBERSECURITY CNN
在线阅读 下载PDF
基于BERT-STAM1DCNN的火电机组故障预测模型
14
作者 钱晓峰 潘泉洪 +1 位作者 田冰 吴超 《微型电脑应用》 2026年第1期196-199,共4页
针对火电机组故障预测准确率低的问题,提出基于BERT-STAM1DCNN的火电机组故障预测模型。在预处理阶段,利用随机森林算法对原始数据进行处理,筛选重要的特征,提高故障预测准确率;利用BERT(bidirectional encoder representations from tr... 针对火电机组故障预测准确率低的问题,提出基于BERT-STAM1DCNN的火电机组故障预测模型。在预处理阶段,利用随机森林算法对原始数据进行处理,筛选重要的特征,提高故障预测准确率;利用BERT(bidirectional encoder representations from transformers)模型对特征数据进行训练,并提出一种融合二次加权时空注意力机制的一维卷积神经网络(STAM1DCNN)模型,提高关键信息对预测结果的影响程度。以火电机组实际运行数据作为数据集,与其他模型相比,所提出的模型具有良好的性能和稳定性。 展开更多
关键词 火电机组 bert-STAM1DCNN 故障预测 1DCNN
在线阅读 下载PDF
Targeted BERT Pre-training and Fine-Tuning Approach for Entity Relation Extraction
15
作者 Chao Li Zhao Qiu 《国际计算机前沿大会会议论文集》 2021年第2期116-125,共10页
Entity relation extraction(ERE)is an important task in the field of information extraction.With the wide application of pre-training language model(PLM)in natural language processing(NLP),using PLM has become a brand ... Entity relation extraction(ERE)is an important task in the field of information extraction.With the wide application of pre-training language model(PLM)in natural language processing(NLP),using PLM has become a brand new research direction of ERE.In this paper,BERT is used to extracting entityrelations,and a separated pipeline architecture is proposed.ERE was decomposed into entity-relation classification sub-task and entity-pair annotation sub-task.Both sub-tasks conduct the pre-training and fine-tuning independently.Combining dynamic and static masking,newVerb-MLM and Entity-MLM BERT pre-training tasks were put forward to enhance the correlation between BERT pre-training and TargetedNLPdownstream task-ERE.Inter-layer sharing attentionmechanismwas added to the model,sharing the attention parameters according to the similarity of the attention matrix.Contrast experiment on the SemEavl 2010 Task8 dataset demonstrates that the new MLM task and inter-layer sharing attention mechanism improve the performance of BERT on the entity relation extraction effectively. 展开更多
关键词 Entity relation extraction bert Verb-MLM Entity-MLM Inter-layer sharing attention mechanism
原文传递
融合ChatGPT与BERT的个性化图书分类推荐探索 被引量:2
16
作者 郭利敏 杨佳 +1 位作者 刘悦如 付雅明 《图书馆论坛》 北大核心 2025年第10期109-117,共9页
为探讨图书馆个性化书目推荐的新路径,文章提出融合ChatGPT与BERT的“编码-分类”策略,将推荐任务转化为文本分类问题,以提升推荐方法的语义理解和可释性,拓展大语言模型在图书馆应用的边界。基于上海图书馆开放数据构建训练集,选取100... 为探讨图书馆个性化书目推荐的新路径,文章提出融合ChatGPT与BERT的“编码-分类”策略,将推荐任务转化为文本分类问题,以提升推荐方法的语义理解和可释性,拓展大语言模型在图书馆应用的边界。基于上海图书馆开放数据构建训练集,选取100位读者的借阅数据作为验证集,使用ChatGPT编码借阅意图,BERT进行文本分类预测,并与协同过滤法进行比较。实验显示该方法在分类推荐中优于传统协同过滤,验证了推荐任务转化思路的有效性,并为语义增强与分层建模提供了可行方向。 展开更多
关键词 智慧图书馆 个性化推荐 ChatGPT bert
在线阅读 下载PDF
基于知识图谱和孪生BERT网络的大坝安全辅助决策技术研究 被引量:1
17
作者 齐智勇 龚士林 +4 位作者 毛延翩 孙辅庭 汤正阳 牟猷 都旭煌 《水电能源科学》 北大核心 2025年第11期158-161,119,共5页
针对一线大坝运行安全管理人员经验欠缺和行业知识难以有效利用的问题,提出了基于知识图谱和孪生BERT网络的大坝安全辅助决策方法。首先,通过分析大坝安全辅助决策过程中可能涉及到的内容,构建了包含9种实体类型和15种关系类型的大坝运... 针对一线大坝运行安全管理人员经验欠缺和行业知识难以有效利用的问题,提出了基于知识图谱和孪生BERT网络的大坝安全辅助决策方法。首先,通过分析大坝安全辅助决策过程中可能涉及到的内容,构建了包含9种实体类型和15种关系类型的大坝运行安全知识体系;其次,依据知识体系对收集到的大坝安全相关数据进行关联存储,形成大坝运行安全知识图谱;然后,基于孪生BERT网络构建了大坝运行安全知识语义匹配模型,形成了自然语言检索语句与图数据库中目标案例的有效关联;最后,提出了基于知识图谱的大坝隐患案例智能匹配流程和方法,实现了最相似案例的智能检索与推荐,并通过实际案例进行了应用效果验证。结果表明,所提方法可实现大坝安全行业专家经验、典型案例的高效利用,以行业知识库的方式对大坝运行安全管理人员提供决策支持。 展开更多
关键词 大坝 知识图谱 孪生bert网络 语义匹配 辅助决策
原文传递
CGR-BERT-ZESHEL:基于中文特征的零样本实体链接模型 被引量:1
18
作者 潘建 吴志伟 李燕君 《计算机科学》 北大核心 2025年第4期262-270,共9页
目前,在实体链接任务的研究中,对中文实体链接、新兴实体与不知名实体链接的研究较少。此外,传统的BERT模型忽略了中文的两个关键方面,即字形和部首,这两者为语言理解提供了重要的语法和语义信息。针对以上问题,提出了一种基于中文特征... 目前,在实体链接任务的研究中,对中文实体链接、新兴实体与不知名实体链接的研究较少。此外,传统的BERT模型忽略了中文的两个关键方面,即字形和部首,这两者为语言理解提供了重要的语法和语义信息。针对以上问题,提出了一种基于中文特征的零样本实体链接模型CGR-BERT-ZESHEL。该模型首先通过引入视觉图像嵌入和传统字符嵌入,分别将字形特征和部首特征输入模型,从而增强词向量特征并缓解未登录词对模型性能的影响;然后采用候选实体生成和候选实体排序两阶段的方法得到实体链接的结果。在Hansel和CLEEK两个数据集上进行实验,结果表明,与基线模型相比,CGR-BERT-ZESHEL模型在候选实体生成阶段的性能指标Recall@100提高了17.49%和7.34%,在候选实体排序阶段的性能指标Accuracy提高了3.02%和3.11%;同时,在Recall@100和Accuracy指标上的性能均优于其他对比模型。 展开更多
关键词 实体链接 中文零样本 bert 候选实体生成 候选实体排序
在线阅读 下载PDF
基于Bert+GCN多模态数据融合的药物分子属性预测 被引量:1
19
作者 闫效莺 靳艳春 +1 位作者 冯月华 张绍武 《生物化学与生物物理进展》 北大核心 2025年第3期783-794,共12页
目的药物研发成本高、周期长且成功率低。准确预测分子属性对有效筛选药物候选物、优化分子结构具有重要意义。基于特征工程的传统分子属性预测方法需研究人员具备深厚的学科背景和广泛的专业知识。随着人工智能技术的不断成熟,涌现出... 目的药物研发成本高、周期长且成功率低。准确预测分子属性对有效筛选药物候选物、优化分子结构具有重要意义。基于特征工程的传统分子属性预测方法需研究人员具备深厚的学科背景和广泛的专业知识。随着人工智能技术的不断成熟,涌现出大量优于传统特征工程方法的分子属性预测算法。然而这些算法模型仍然存在标记数据稀缺、泛化性能差等问题。鉴于此,本文提出一种基于Bert+GCN的多模态数据融合的分子属性预测算法(命名为BGMF),旨在整合药物分子的多模态数据,并充分利用大量无标记药物分子训练模型学习药物分子的有用信息。方法本文提出了BGMF算法,该算法根据药物SMILES表达式分别提取了原子序列、分子指纹序列和分子图数据,采用预训练模型Bert和图卷积神经网络GCN结合的方式进行特征学习,在挖掘药物分子中“单词”全局特征的同时,融合了分子图的局部拓扑特征,从而更充分利用分子全局-局部上下文语义关系,之后,通过对原子序列和分子指纹序列的双解码器设计加强分子特征表达。结果5个数据集共43个分子属性预测任务上,BGMF方法的AUC值均优于现有其他方法。此外,本文还构建独立测试数据集验证了模型具有良好的泛化性能。对生成的分子指纹表征(molecular fingerprint representation)进行t-SNE可视化分析,证明了BGMF模型可成功捕获不同分子指纹的内在结构与特征。结论通过图卷积神经网络与Bert模型相结合,BGMF将分子图数据整合到分子指纹恢复和掩蔽原子恢复的任务中,可以有效地捕捉分子指纹的内在结构和特征,进而高效预测药物分子属性。 展开更多
关键词 bert预训练 注意力机制 分子指纹 分子属性预测 图卷积神经网络
原文传递
基金经理语调、基金收益与投资者行为——基于BERT人工智能模型的检验 被引量:2
20
作者 沈红波 洪康隆 王锴 《现代金融研究》 北大核心 2025年第4期20-38,共19页
本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传... 本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传统的词袋法,BERT人工智能模型度量的基金经理语调更能识别基金经理的真情实感,对基金未来收益、顺境中的基金业绩持续性及逆境中的基金崩盘风险的预测效果更好,且上述识别优势在复杂度较高、可读性较差的“展望”文本中更显著;(2)个人投资者的“有限理性”特征和公募基金存在的委托代理问题导致个人投资者更容易被基金经理“词藻堆砌”的文本所吸引,进而导致投资收益率降低。本文将BERT人工智能模型引入财经文本情感分析,为文本语调的度量方法提供了新思路。 展开更多
关键词 基金经理语调 基金收益 投资者行为 bert模型
在线阅读 下载PDF
上一页 1 2 96 下一页 到第
使用帮助 返回顶部