期刊文献+
共找到1,719篇文章
< 1 2 86 >
每页显示 20 50 100
基于Bert+GCN多模态数据融合的药物分子属性预测 被引量:1
1
作者 闫效莺 靳艳春 +1 位作者 冯月华 张绍武 《生物化学与生物物理进展》 北大核心 2025年第3期783-794,共12页
目的药物研发成本高、周期长且成功率低。准确预测分子属性对有效筛选药物候选物、优化分子结构具有重要意义。基于特征工程的传统分子属性预测方法需研究人员具备深厚的学科背景和广泛的专业知识。随着人工智能技术的不断成熟,涌现出... 目的药物研发成本高、周期长且成功率低。准确预测分子属性对有效筛选药物候选物、优化分子结构具有重要意义。基于特征工程的传统分子属性预测方法需研究人员具备深厚的学科背景和广泛的专业知识。随着人工智能技术的不断成熟,涌现出大量优于传统特征工程方法的分子属性预测算法。然而这些算法模型仍然存在标记数据稀缺、泛化性能差等问题。鉴于此,本文提出一种基于Bert+GCN的多模态数据融合的分子属性预测算法(命名为BGMF),旨在整合药物分子的多模态数据,并充分利用大量无标记药物分子训练模型学习药物分子的有用信息。方法本文提出了BGMF算法,该算法根据药物SMILES表达式分别提取了原子序列、分子指纹序列和分子图数据,采用预训练模型Bert和图卷积神经网络GCN结合的方式进行特征学习,在挖掘药物分子中“单词”全局特征的同时,融合了分子图的局部拓扑特征,从而更充分利用分子全局-局部上下文语义关系,之后,通过对原子序列和分子指纹序列的双解码器设计加强分子特征表达。结果5个数据集共43个分子属性预测任务上,BGMF方法的AUC值均优于现有其他方法。此外,本文还构建独立测试数据集验证了模型具有良好的泛化性能。对生成的分子指纹表征(molecular fingerprint representation)进行t-SNE可视化分析,证明了BGMF模型可成功捕获不同分子指纹的内在结构与特征。结论通过图卷积神经网络与Bert模型相结合,BGMF将分子图数据整合到分子指纹恢复和掩蔽原子恢复的任务中,可以有效地捕捉分子指纹的内在结构和特征,进而高效预测药物分子属性。 展开更多
关键词 bert预训练 注意力机制 分子指纹 分子属性预测 图卷积神经网络
原文传递
CGR-BERT-ZESHEL:基于中文特征的零样本实体链接模型 被引量:1
2
作者 潘建 吴志伟 李燕君 《计算机科学》 北大核心 2025年第4期262-270,共9页
目前,在实体链接任务的研究中,对中文实体链接、新兴实体与不知名实体链接的研究较少。此外,传统的BERT模型忽略了中文的两个关键方面,即字形和部首,这两者为语言理解提供了重要的语法和语义信息。针对以上问题,提出了一种基于中文特征... 目前,在实体链接任务的研究中,对中文实体链接、新兴实体与不知名实体链接的研究较少。此外,传统的BERT模型忽略了中文的两个关键方面,即字形和部首,这两者为语言理解提供了重要的语法和语义信息。针对以上问题,提出了一种基于中文特征的零样本实体链接模型CGR-BERT-ZESHEL。该模型首先通过引入视觉图像嵌入和传统字符嵌入,分别将字形特征和部首特征输入模型,从而增强词向量特征并缓解未登录词对模型性能的影响;然后采用候选实体生成和候选实体排序两阶段的方法得到实体链接的结果。在Hansel和CLEEK两个数据集上进行实验,结果表明,与基线模型相比,CGR-BERT-ZESHEL模型在候选实体生成阶段的性能指标Recall@100提高了17.49%和7.34%,在候选实体排序阶段的性能指标Accuracy提高了3.02%和3.11%;同时,在Recall@100和Accuracy指标上的性能均优于其他对比模型。 展开更多
关键词 实体链接 中文零样本 bert 候选实体生成 候选实体排序
在线阅读 下载PDF
基金经理语调、基金收益与投资者行为——基于BERT人工智能模型的检验 被引量:1
3
作者 沈红波 洪康隆 王锴 《现代金融研究》 北大核心 2025年第4期20-38,共19页
本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传... 本文以2014-2023年我国基金年度报告“展望”章节文本为样本,运用BERT人工智能模型和传统的词袋法,分别构建“词藻堆砌”与“真情实感”变量,对比基金经理语调对基金未来收益的预测效果及其对个人投资者行为的影响。研究发现:(1)相比传统的词袋法,BERT人工智能模型度量的基金经理语调更能识别基金经理的真情实感,对基金未来收益、顺境中的基金业绩持续性及逆境中的基金崩盘风险的预测效果更好,且上述识别优势在复杂度较高、可读性较差的“展望”文本中更显著;(2)个人投资者的“有限理性”特征和公募基金存在的委托代理问题导致个人投资者更容易被基金经理“词藻堆砌”的文本所吸引,进而导致投资收益率降低。本文将BERT人工智能模型引入财经文本情感分析,为文本语调的度量方法提供了新思路。 展开更多
关键词 基金经理语调 基金收益 投资者行为 bert模型
在线阅读 下载PDF
融合ChatGPT与BERT的个性化图书分类推荐探索
4
作者 郭利敏 杨佳 +1 位作者 刘悦如 付雅明 《图书馆论坛》 北大核心 2025年第10期109-117,共9页
为探讨图书馆个性化书目推荐的新路径,文章提出融合ChatGPT与BERT的“编码-分类”策略,将推荐任务转化为文本分类问题,以提升推荐方法的语义理解和可释性,拓展大语言模型在图书馆应用的边界。基于上海图书馆开放数据构建训练集,选取100... 为探讨图书馆个性化书目推荐的新路径,文章提出融合ChatGPT与BERT的“编码-分类”策略,将推荐任务转化为文本分类问题,以提升推荐方法的语义理解和可释性,拓展大语言模型在图书馆应用的边界。基于上海图书馆开放数据构建训练集,选取100位读者的借阅数据作为验证集,使用ChatGPT编码借阅意图,BERT进行文本分类预测,并与协同过滤法进行比较。实验显示该方法在分类推荐中优于传统协同过滤,验证了推荐任务转化思路的有效性,并为语义增强与分层建模提供了可行方向。 展开更多
关键词 智慧图书馆 个性化推荐 ChatGPT bert
在线阅读 下载PDF
基于BERT-MHA的深度语义增强专家推荐算法
5
作者 申彦 王倩 《科学技术与工程》 北大核心 2025年第25期10810-10820,共11页
针对现有的专家推荐算法忽略了用户评论中蕴含的情感表达对专家专长表征的影响,从而导致推荐准确度不高的问题,提出基于双向编码器表示-多头注意力机制(bidirectional encoder representations from transformers-multi-head attention,... 针对现有的专家推荐算法忽略了用户评论中蕴含的情感表达对专家专长表征的影响,从而导致推荐准确度不高的问题,提出基于双向编码器表示-多头注意力机制(bidirectional encoder representations from transformers-multi-head attention,BERT-MHA)的深度语义增强专家推荐算法。该算法基于预训练BERT模型,融合MHA机制,自动调整用户评论对专家历史回答问题的情感注意力权重,获取专家动态专长表征,并与静态专长联合以实现专家特征文本的语义增强,表征专家综合专长;通过注意力机制识别用户问题特征;采用多层感知机建模专家综合专长与用户问题间的非线性交互,预测推荐专家的匹配度。利用好大夫网站(haodf.com)的数据进行了不同参数配置及不同算法的对比实验,实验结果表明该算法在准确率(accuracy,ACC)和曲线下的面积(area under curve,AUC)指标下明显优于其他算法,能有效提高在线问答社区的专家推荐准确度。 展开更多
关键词 bert 多头注意力 语义增强 专家推荐 深度学习
在线阅读 下载PDF
基于BERT和自注意力SRU的AST级Webshell检测方法
6
作者 李道丰 宁梓桁 《信息网络安全》 北大核心 2025年第2期270-280,共11页
Webshell作为一种隐蔽性强、危害性大的网页后门,已在网络安全领域受到广泛关注。Webshell代码的混淆技术显著降低了传统检测方法的有效性,且许多传统检测模型未能有效应对高效处理大量数据的需求。因此,文章提出一种结合BERT词嵌入、双... Webshell作为一种隐蔽性强、危害性大的网页后门,已在网络安全领域受到广泛关注。Webshell代码的混淆技术显著降低了传统检测方法的有效性,且许多传统检测模型未能有效应对高效处理大量数据的需求。因此,文章提出一种结合BERT词嵌入、双向SRU网络结合自注意力机制的Webshell检测方法BAT-SRU。该方法通过抽象语法树提取代码特征,结合样本解混淆与危险函数统计提升特征质量,并采用BAT-SRU模型进行检测。现有方法如基于Word2Vec与双向GRU的检测方法、基于操作码序列与随机森林的分类方法以及基于Text-CNN的AST特征提取方法,存在特征表达不足和对复杂混淆代码适应性差的问题。相比上述方法,BAT-SRU在检测PHP Webshell上性能更优异,得到了准确率99.68%、精确率99.13%、召回率99.22%和F1值99.18%的实验结果。此外,与RNN及其变体模型相比,BAT-SRU在训练时间上可以节约23.47%,在推理时间上可以节省40.14%。 展开更多
关键词 PHP Webshell 抽象语法树 bert词嵌入 SRU 自注意力
在线阅读 下载PDF
基于BERT并融合法律事件信息的罪名预测方法
7
作者 邱一卉 喻瑶瑶 《厦门大学学报(自然科学版)》 北大核心 2025年第4期642-652,共11页
[目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事... [目的]罪名预测是AI&Law领域的一个关键研究内容,对于提升司法领域的判决效率具有重要意义.由于法律文本的专业性和复杂性,传统罪名预测模型在提取法律文本特征时面临挑战,因此本文提出了一个基于预训练语言模型(BERT)并融合法律事件信息的罪名预测模型,通过利用法律事件信息为模型提供更多的法律案件特征,提升模型对案件的理解,从而提升罪名预测的表现.[方法]首先训练了一个全局上层事件类型信息增强的法律事件检测模型,利用其对案情描述中的法律事件类型进行检测,并在此基础上构建法律事件类型序列.其次,利用双向长短期记忆模型(BiLSTM)对法律事件类型序列进行编码获取法律事件信息,并将法律事件信息与经过BERT编码后的案情描述的语义表示拼接融合,最后利用一层全连接层对罪名进行预测.[结果]在公开的刑事案件数据集CAIL2018-small上的实验结果表明,相比于领域内的其他基线模型,本文提出的模型在各个关键指标上具备更好的性能,即在Mac.F_(1)上平均提升3.12个百分点,在Mac.P上平均提升1.94个百分点,在Mac.R上平均提升3.53个百分点.[结论]验证了法律事件信息在增强模型对案件理解方面的有效性,从而提高罪名预测的准确性. 展开更多
关键词 AI&Law bert模型 罪名预测 法律事件信息
在线阅读 下载PDF
基于BERT和图注意力网络的医疗文本因果关系抽取算法
8
作者 刘位龙 王玎 +6 位作者 赵超 王宁 张旭 苏萍 宋书典 张娜 迟蔚蔚 《山东大学学报(医学版)》 北大核心 2025年第8期61-68,共8页
目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention network... 目的提出一种能够有效抽取因果关系的算法,以提高医疗领域文本处理的准确性。方法提出基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)和因果图注意力网络(causal graph attention networks,CGAT)的BERT-CGAT算法。首先构建因果关系图,利用医疗文本对BERT模型进行微调,以获得优化的实体嵌入表示;随后通过知识融合通道整合文本编码信息与因果结构,输入至图注意力网络;采用多头注意力机制并行处理不同子空间信息,增强复杂语义关系捕捉能力;最后通过双通道解码层实现实体及因果关系的同步抽取。结果在自建的糖尿病因果实体数据集上的实验表明,模型在准确率(99.74%)与召回率(81.04%)上较传统BiLSTM-CRF基线提升0.65%和16.73%,F1分数达80.83%。结论BERT-CGAT算法通过结合BERT的语义特征提取能力和图神经网络的关系建模优势,有效提升了医疗文本因果关系抽取的准确性,验证了该方法的有效性。 展开更多
关键词 医疗文本 bert模型 图注意力网络 因果关系抽取
原文传递
基于融合评价指标BERT-RGCN的油田评价区块调整措施推荐方法
9
作者 王梅 朱晓丽 +2 位作者 孙洪国 王海艳 濮御 《东北石油大学学报》 北大核心 2025年第5期110-120,I0008,共12页
为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价... 为解决油田领域区块调整措施推荐过程中存在的样本数据稀疏和语义特征复杂等问题,提出基于融合评价指标(EI)的变换器双向编码(BERT)与关系图卷积神经网络(RGCN)的油田评价区块调整措施推荐方法(EI-BERT-RGCN方法)。根据评价指标、评价区块及措施之间的交互信息构建异构图,利用BERT模型生成评价指标、评价区块及措施术语词向量,共同作为输入词向量,将融合评价指标信息的异构图和输入词向量放入RGCN模型训练,学习评价区块的有效表征;在某油田评价区块提供的数据集上进行实验对比。结果表明:EI-BERT-RGCN方法能够捕捉文本中隐含的复杂语义并缓解数据稀疏问题,能更好理解未观察到的评价指标与调整措施之间的潜在关系,提升节点的表示质量。EI-BERT-RGCN模型在精确率、召回率、F_(1)分数及ROC曲线下面积等评价指标上优于其他基准模型,在保持较高精确率的同时,展现更好的泛化能力和鲁棒性。该结果为油田评价区块调整措施推荐提供参考。 展开更多
关键词 异构图 变换器双向编码(bert) 预训练模型 关系图卷积神经网络(RGCN) 推荐算法 措施推荐 油田评价区块
在线阅读 下载PDF
基于BERT的中文合同标题分类
10
作者 陈雪松 韩信 王浩畅 《计算机与数字工程》 2025年第6期1681-1685,1756,共6页
论文针对中文文本分类中几乎没有合同文本分类的相关研究,获取了一定数量的合同数据,并对合同数据进行预处理,构建了合同标题分类数据集。论文提出BERT-RCNN-Attention文本分类模型处理中文合同标题分类的问题。使用BERT预训练模型生成... 论文针对中文文本分类中几乎没有合同文本分类的相关研究,获取了一定数量的合同数据,并对合同数据进行预处理,构建了合同标题分类数据集。论文提出BERT-RCNN-Attention文本分类模型处理中文合同标题分类的问题。使用BERT预训练模型生成含有上下文语义信息和句子结构的词向量;使用BiLSTM提取合同标题上下文相关特征;使用注意力机制提高模型对于关键特征的提取能力;使用CNN的最大池化层以增强局部关键信息的提取能力;最后使用Softmax层输出合同标题分类结果。在合同标题分类中,论文提出的模型在合同标题分类中精确率、召回率和F1值分别达到了92.77%、91.87%、0.922 9,得到了比较好的分类效果。 展开更多
关键词 合同分类 bert BiLSTM 最大池化
在线阅读 下载PDF
基于BERT融合算法的病例文本结构化模型研究
11
作者 张雪 王琛琛 职宁 《中国医疗设备》 2025年第9期12-19,共8页
目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长... 目的为提升临床病例文本中非结构化信息的提取效率与准确性,推动医学智能化发展,本研究提出一种基于双向编码器表示融合算法的病例文本结构化模型。方法该模型采用双向编码器进行语义表示,利用图卷积神经网络提取词语间局部依赖,融合长短时记忆网络建立时序关系,并引入条件随机场优化标签序列的一致性。实验选用MIMIC-Ⅲ和ClinicalSTS这2个权威临床数据集进行分析,构建五类医学文本分类任务,对比所有模型在不同结构组合下的性能表现。结果本研究所提出的病例文本结构化模型的精准度、召回率和F1得分分别为0.92、0.90和0.91,均较传统双向编码器模型提升约10%;在处理超过1000字的长文本场景时,模型效率提升达12%,表现出良好的时效性与可扩展性。结论本研究通过验证深度融合多种结构对提高病例文本结构化处理能力的有效性,为智能医学文本分析提供了理论依据。 展开更多
关键词 病例文本 长短时记忆网络 bert 图卷积神经网络 结构化模型 医学智能化
在线阅读 下载PDF
基于Sentence-BERT和时序分析的学者研究主题相似性测度
12
作者 阮光册 黎心怡 廖紫伊 《图书馆杂志》 北大核心 2025年第8期98-108,共11页
学者研究主题相似性测度,是挖掘潜在合作关系和学术社团发现的基础工作。鉴于学者研究主题动态变化的特点,本文将Sentence-BERT句向量模型与时序分析相结合,从文本语义层面挖掘学者间研究主题相似性测度,并反映相似性的动态变化特征。... 学者研究主题相似性测度,是挖掘潜在合作关系和学术社团发现的基础工作。鉴于学者研究主题动态变化的特点,本文将Sentence-BERT句向量模型与时序分析相结合,从文本语义层面挖掘学者间研究主题相似性测度,并反映相似性的动态变化特征。实验中,本文采集中国知网(CNKI)中的文献数据,首先运用Sentence-BERT模型对文献内容进行向量化处理和相似度计算,随后结合时序变化计算学者间研究主题的时序变化特征,最后通过四象限矩阵图呈现计算结果。通过对比实验,本文方法能够较好地从语义层面识别近期研究主题相似度较高的学者。 展开更多
关键词 Sentence-bert 时间序列 学者研究主题 相似性测度
原文传递
基于Sentence-BERT与孤立森林算法的专利新颖性评估
13
作者 邓娜 王雨佳 +1 位作者 杨洋 陈旭 《情报杂志》 北大核心 2025年第2期174-182,共9页
[研究目的]面对专利数量的迅猛增长,采用人工方法评估专利新颖性变得愈发困难,且目前专利新颖性评估研究过度聚焦于技术层面,未能综合考虑专利的其他信息因素。因此,实现更高效、客观的专利新颖性评估具有重要的现实意义。[研究方法]提... [研究目的]面对专利数量的迅猛增长,采用人工方法评估专利新颖性变得愈发困难,且目前专利新颖性评估研究过度聚焦于技术层面,未能综合考虑专利的其他信息因素。因此,实现更高效、客观的专利新颖性评估具有重要的现实意义。[研究方法]提出一种基于Sentence-BERT与孤立森林算法的专利新颖性评估方法。首先,使用专利标题与IPC分类号分别作为专利的应用方向与功能分类特征,再通过BiLSTM-CRF模型对专利摘要进行关键技术抽取作为实施方法特征;其次,采用Sentence-BERT对上述特征进行文本向量化表示后组合输入至孤立森林算法获得离群专利集;最后,通过技术量权值过滤法提高专利新颖性评估的精度。[研究结果/结论]以金融科技领域专利进行实证研究,结果表明,该评估方法准确率相较专业专利分析平台方法提升了9%~11%。证明了该方法在专利新颖性评估中的有效性,能为后续专利审核工作和高价值专利分析提供参考。 展开更多
关键词 专利评估 专利新颖性 BiLSTM-CRF Sentence-bert 孤立森林算法 机器学习
在线阅读 下载PDF
基于BERT模型的人岗匹配混合推荐系统研究
14
作者 彭超云 姚渺波 曾东晨 《信息记录材料》 2025年第4期236-238,共3页
在大数据时代,推荐算法有效缓解了信息过载问题,尤其在岗位推荐领域展现出重要价值。然而,针对高校毕业生的人岗推荐面临数据冷启动和数据稀疏性挑战,需综合考量专业、实习经历和就业意向等因素。本文提出基于Transformer的双向编码器表... 在大数据时代,推荐算法有效缓解了信息过载问题,尤其在岗位推荐领域展现出重要价值。然而,针对高校毕业生的人岗推荐面临数据冷启动和数据稀疏性挑战,需综合考量专业、实习经历和就业意向等因素。本文提出基于Transformer的双向编码器表示(bidirectional encoder representation from Transformers,BERT)模型的混合推荐模型,设计冷启动与热启动双路径推荐策略。冷启动路径基于BERT模型计算岗位与学生嵌入向量的相似度,解决新用户历史数据缺失的困境,热启动路径基于既有用户行为数据,采用加权平均融合策略整合岗位相似度与用户相似度评分矩阵,以提升推荐精度。用户满意度调查显示:推荐岗位数量在“3~10个”时,符合预期或引起足够兴趣的百分比超70%,验证了该系统满足毕业生就业服务需求的有效性。 展开更多
关键词 bert模型 冷启动 岗位推荐 高校大学生
在线阅读 下载PDF
基于自注意力机制的BERT文本情感分析模型
15
作者 朱珍元 苏喻 《海南师范大学学报(自然科学版)》 2025年第3期281-288,共8页
在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情... 在文本情感分析领域,BERT模型因其强大的特征提取能力而被广泛应用。然而,实证研究表明,在没有对BERT进行微调的情况下,其准确性可能遭受显著损失,导致模型的实际效果未能达到预期。为了解决这一问题,提出一种结合自注意力的BERT文本情感分析模型:BERTBLSTM-Attention。该模型通过综合利用BERT的预训练能力、BLSTM和自注意力机制,增强对文本情感的理解和分析。首先,BERT模型被用于将输入的文本数据表示为高维特征向量。BERT作为一种强大的预训练模型,能够捕捉到丰富的语义信息和上下文特征,为后续的模型提供基础输入。在这一阶段,BERT的双向编码能力使模型可以从上下文中提取出更多细腻的语义信息,这对于情感分析至关重要。然后,在BLSTM层之后引入多头自注意力机制。自注意力机制的加入,使得模型可以在处理输入序列时,更加关注文本中重要的部分,通过动态分配权重来强化这些关键特征的作用。最后,模型在输出层使用SoftMax函数进行文本情感分类。在这一阶段,基于收集到的特征,模型能够生成每种情感类别的概率分布,为情感分类提供输出。在进行有效分类的同时,模型也展示了出色的泛化能力。实验发现,引入自注意力机制的BLSTM模型的准确率比未引入自注意力机制的BLSTM模型高1.8%,比未使用BERT模型的准确率高0.9%,充分说明了本文模型在语言特征提取方面的有效性。 展开更多
关键词 bert模型 文本情感分析 自注意力机制
在线阅读 下载PDF
基于BERT和知识图谱的武器装备问答系统
16
作者 王博 蒋序平 黄启鸿 《指挥控制与仿真》 2025年第3期99-103,共5页
武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命... 武器装备知识是制定装备运用策略和发展路径的重要依据。针对关系数据库数据冗余、交互难度大、模糊查询匹配度不高等问题,构建了基于知识图谱的武器装备问答系统。通过微调BERT模型实现命名实体识别与问句分类;通过向问句模板中填入命名实体生成查询语句,通过答句模板生成问题答案。分析测试结果表明,该系统能够有效地将正确答案排在前列,且在准确性和全面性之间达到了较好的平衡,但仍有一定的改进空间。 展开更多
关键词 知识图谱 bert模型 武器装备
在线阅读 下载PDF
基于K-BERT的测井文本分类方法研究
17
作者 曹茂俊 肖阳 《计算机技术与发展》 2025年第5期197-204,共8页
在石油勘探与开发领域,测井文本数据的处理和分类是提高测井数据解读效率和准确性的关键环节。然而,测井文本中包含大量专业术语和复杂的数据结构,使得传统的文本分类技术在面对专业领域数据时效果有限,难以满足实际应用需求。为了解决... 在石油勘探与开发领域,测井文本数据的处理和分类是提高测井数据解读效率和准确性的关键环节。然而,测井文本中包含大量专业术语和复杂的数据结构,使得传统的文本分类技术在面对专业领域数据时效果有限,难以满足实际应用需求。为了解决这一问题,该文提出了一种改进的K-BERT文本分类方法。该方法结合了K-BERT模型和TextCNN的文本特征提取能力。K-BERT通过引入测井领域的知识图谱,将领域知识嵌入模型中,增强了模型对专业术语和复杂语义的理解能力,从而提升了模型在专业领域文本分类中的语义捕捉效果。而TextCNN利用卷积神经网络的特性,能够有效提取文本的局部特征,捕捉文本细节信息,进一步提升分类的精度与鲁棒性。两者的结合为测井文本的分类提供了一种创新的解决方案。通过实验对比分析,该方法在宏精确率、宏召回率及宏F1值等指标上均优于传统文本分类模型,验证了其在专业领域文本分类中的有效性和优越性。 展开更多
关键词 K-bert TextCNN 测井文本 文本分类 测井知识图谱
在线阅读 下载PDF
面向中文小样本命名实体识别的BERT优化方法 被引量:1
18
作者 杨三和 赖沛超 +3 位作者 傅仰耿 王一蕾 叶飞扬 张林 《小型微型计算机系统》 北大核心 2025年第3期602-611,共10页
为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于... 为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于提示学习与对比学习的BERT预训练策略.在提示学习阶段,设计掩码填充模板来训练BERT预测出每个标记对应的中文标签词.在对比学习阶段,利用引导模板训练BERT学习每个标记和标签词之间的相似性与差异性.其次,针对中文缺乏明确的词边界所带来的复杂性和挑战性,修改BERT模型的第一层Transformer结构,并设计了一种带有混合权重引导器的特征融合模块,将词典信息集成到BERT底层中.最后,实验结果验证了所提方法在中文小样本NER任务中的有效性与优越性.该方法结合BERT和条件随机场(CRF)结构,在4个采样的中文NER数据集上取得了最好的性能.特别是在Weibo数据集的3个小样本场景下,模型的F 1值分别达到了63.78%、66.27%、70.90%,与其他方法相比,平均F 1值分别提高了16.28%、14.30%、11.20%.此外,将ProConBERT应用到多个基于BERT的中文NER模型中能进一步提升实体识别的性能. 展开更多
关键词 中文小样本命名实体识别 提示学习 对比学习 预训练 特征融合 bert模型
在线阅读 下载PDF
基于Bert-BiLSTM-CRF监察问题实体识别研究
19
作者 付茂洺 李娟 张兵 《舰船电子工程》 2025年第6期106-109,148,共5页
针对于监察过程中产生的数据存在的文本长、命名实体多、实体难以识别的问题,提出了基于Bert-BiLSTM-CRF的民航监察问题命名实体识别方法。以Bert为底层预训练模型,结合BiLSTM循环神经网络对文本实体的标签进行预测,使用CRF模型对识别... 针对于监察过程中产生的数据存在的文本长、命名实体多、实体难以识别的问题,提出了基于Bert-BiLSTM-CRF的民航监察问题命名实体识别方法。以Bert为底层预训练模型,结合BiLSTM循环神经网络对文本实体的标签进行预测,使用CRF模型对识别的结果进行约束。实验结果表明,该方法能有效获取监察问题中的重要实体信息,采用Bert-BiLSTM-CRF模型在原有的BiLSTM-CRF模型基础上识别精度提升了4.06%。 展开更多
关键词 民航监察 命名实体识别 bert-BiLSTM-CRF 预训练
在线阅读 下载PDF
一种基于注意力机制的BERT-CNN-GRU检测方法 被引量:3
20
作者 郑雅洲 刘万平 黄东 《计算机工程》 北大核心 2025年第1期258-268,共11页
针对现有检测方法对短域名检测性能普遍较差的问题,提出一种BERT-CNN-GRU结合注意力机制的检测方法。通过BERT提取域名的有效特征和字符间组成逻辑,根据并行的融合简化注意力的卷积神经网络(CNN)和基于多头注意力机制的门控循环单元(GRU... 针对现有检测方法对短域名检测性能普遍较差的问题,提出一种BERT-CNN-GRU结合注意力机制的检测方法。通过BERT提取域名的有效特征和字符间组成逻辑,根据并行的融合简化注意力的卷积神经网络(CNN)和基于多头注意力机制的门控循环单元(GRU)提取域名深度特征。CNN使用n-gram排布的方式提取不同层次的域名信息,并采用批标准化(BN)对卷积结果进行优化。GRU能够更好地获取前后域名的组成差异,多头注意力机制在捕获域名内部的组成关系方面表现出色。将并行检测网络输出的结果进行拼接,最大限度地发挥两种网络的优势,并采用局部损失函数聚焦域名分类问题,提高分类性能。实验结果表明,该方法在二分类上达到了最优效果,在短域名多分类数据集上15分类的加权F1值达到了86.21%,比BiLSTM-Seq-Attention模型提高了0.88百分点,在UMUDGA数据集上50分类的加权F1值达到了85.51%,比BiLSTM-Seq-Attention模型提高了0.45百分点。此外,该模型对变体域名和单词域名生成算法(DGA)检测性能较好,具有处理域名数据分布不平衡的能力和更广泛的检测能力。 展开更多
关键词 恶意短域名 bert预训练 批标准化 注意力机制 门控循环单元 并行卷积神经网络
在线阅读 下载PDF
上一页 1 2 86 下一页 到第
使用帮助 返回顶部