期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
融合注意力机制的MacBERT-DPCNN农业文本分类模型 被引量:1
1
作者 张典 刘畅 +2 位作者 陈雯柏 缪祎晟 吴华瑞 《中国农机化学报》 北大核心 2025年第8期83-89,共7页
针对农业领域文本信息密度大、语义模糊、特征稀疏的特点,提出一种基于MacBERT(MLM as correction-BERT)、深度金字塔卷积网络(DPCNN)和注意力机制(Attention)的农业文本分类模型,命名为MacBERT—DPCNN—Attention(MDA)。首先,使用MacB... 针对农业领域文本信息密度大、语义模糊、特征稀疏的特点,提出一种基于MacBERT(MLM as correction-BERT)、深度金字塔卷积网络(DPCNN)和注意力机制(Attention)的农业文本分类模型,命名为MacBERT—DPCNN—Attention(MDA)。首先,使用MacBERT模型充分提取农业类文本内容的上下文信息,强化文本的语义特征表示。然后,DPCNN模型通过其多层卷积神经网络和池化操作,有效捕获文本的局部特征。最后,注意力机制进一步增强农业文本序列的特征表达。结果表明,与其他主流模型如BERT—DPCNN、BERT—CNN、BERT—RNN相比,MDA模型在农业文本分类任务上的精确率提升1.04%以上,召回率提升0.95%以上,F1值提升0.14%以上。表明所提模型在解决农业领域文本分类问题方面的有效性和优越性。 展开更多
关键词 农业文本分类 macbert模型 深度金字塔卷积网络 注意力机制 预训练模型
在线阅读 下载PDF
基于MacBERT-GP的中文医学命名实体识别方法
2
作者 姚传彪 马汉杰 +3 位作者 董慧 许永恩 李少华 李东倪 《智能计算机与应用》 2025年第2期190-197,共8页
医学命名实体识别作为医学信息提取的基础任务,在构建医学知识图谱、解决医学问题和自动分析病例等方面具有重要意义。相较于一般领域的命名实体识别,医学命名实体识别面临中文分词复杂性和医学领域术语丰富性等挑战,同时医学命名实体... 医学命名实体识别作为医学信息提取的基础任务,在构建医学知识图谱、解决医学问题和自动分析病例等方面具有重要意义。相较于一般领域的命名实体识别,医学命名实体识别面临中文分词复杂性和医学领域术语丰富性等挑战,同时医学命名实体更为复杂、容易嵌套。为了提升现有命名实体识别模型的准确性,解决训练过程中高质量标注数据匮乏的问题,针对医学命名实体识别,提出一种基于MacBERT-GP的中文医学命名实体识别方法。在CBLUE CMeEE-V2医疗命名实体识别数据集和CCKS2019电子病历数据集上的实验结果,充分验证了该方法的有效性。相较于经典的BERT-BiLSTM-CRF方法,所提出的方法在F1值上分别提升了6.24%和4.95%。 展开更多
关键词 macbert 大语言模型 全局指针 特征融合 嵌套实体
在线阅读 下载PDF
基于MacBERT的融合依存句法信息和多视角词汇信息的中文命名实体识别方法
3
作者 李代成 李晗 +1 位作者 刘哲宇 龚诗恒 《计算机科学》 北大核心 2025年第S1期278-285,共8页
在实体类型开放和实体结构复杂的中文环境下,中文命名实体识别任务存在明显的实体边界判断错误和实体分类准确率低等问题。为了进一步改善上述问题,提出了一种以字符作为编码单位,并基于MacBERT预训练模型的中文命名实体识别模型——Mac... 在实体类型开放和实体结构复杂的中文环境下,中文命名实体识别任务存在明显的实体边界判断错误和实体分类准确率低等问题。为了进一步改善上述问题,提出了一种以字符作为编码单位,并基于MacBERT预训练模型的中文命名实体识别模型——MacBERT-SDI-ML。首先,为了提取更丰富的中文语义特征,提高实体识别的准确性,模型采用MacBERT作为嵌入层。其次,为了进一步增强实体表示的特征,提高实体分类的准确性,模型通过一个依存句法信息解析器(SDIP)对实体更丰富的依存信息进行更高效的提取,并将其融合到字符表示中。此外,考虑到字符在不同的词汇中可能处在不同的位置,模型设计了一种基于自注意力机制的面向多视角的词汇信息融合组件(MLIF),来进一步增强字符表示的边界特征,有助于提高对边界判断的能力。最后,分别在Weibo,OntoNotes和Resume数据集上对模型进行训练。实验表明,MacBERT-SDI-ML模型在3个数据集上的F1值分别达到72.97%,86.56%和98.45%。 展开更多
关键词 中文命名实体识别 macbert 词汇信息 依存信息 预训练模型 自注意力机制
在线阅读 下载PDF
基于MacBERT的方面级中文教学评论无监督情感分析框架
4
作者 顾明 王晓勇 胡胜利 《重庆科技大学学报(自然科学版)》 CAS 2024年第5期72-78,共7页
针对中文教学评论的情感分析,提出了基于预训练语言模型MacBERT的方面级中文教学评论无监督情感分析框架。首先,针对每个教学方面和情感极性,通过预训练语言模型构建语义一致的类别词表;然后,利用构建的词表和词性标签,基于重合率矩阵... 针对中文教学评论的情感分析,提出了基于预训练语言模型MacBERT的方面级中文教学评论无监督情感分析框架。首先,针对每个教学方面和情感极性,通过预训练语言模型构建语义一致的类别词表;然后,利用构建的词表和词性标签,基于重合率矩阵对训练语料库中的部分评论句进行标注;最后,利用已标注的评论句构建神经网络,通过MacBERT提取测试数据中方面类别和情感类别的联合隐藏特征,并利用抗噪声损失函数完成方面抽取和情感分类。实验结果表明,该模型在方面抽取和情感分类任务上的宏观F1值分别为78.10%和89.20%,说明该模型能够从学生反馈中准确完成方面类别抽取并确定每个评论句的情感极性。 展开更多
关键词 方面级情感分析 深度学习 macbert 预训练语言模型 重合率矩阵
在线阅读 下载PDF
基于MacBERT与对抗训练的机器阅读理解模型 被引量:1
5
作者 周昭辰 方清茂 +2 位作者 吴晓红 胡平 何小海 《计算机工程》 CAS CSCD 北大核心 2024年第5期41-50,共10页
机器阅读理解旨在让机器像人类一样理解自然语言文本,并据此进行问答任务。近年来,随着深度学习和大规模数据集的发展,机器阅读理解引起了广泛关注,但是在实际应用中输入的问题通常包含各种噪声和干扰,这些噪声和干扰会影响模型的预测... 机器阅读理解旨在让机器像人类一样理解自然语言文本,并据此进行问答任务。近年来,随着深度学习和大规模数据集的发展,机器阅读理解引起了广泛关注,但是在实际应用中输入的问题通常包含各种噪声和干扰,这些噪声和干扰会影响模型的预测结果。为了提高模型的泛化能力和鲁棒性,提出一种基于掩码校正的来自Transformer的双向编码器表示(Mac BERT)与对抗训练(AT)的机器阅读理解模型。首先利用Mac BERT对输入的问题和文本进行词嵌入转化为向量表示;然后根据原始样本反向传播的梯度变化在原始词向量上添加微小扰动生成对抗样本;最后将原始样本和对抗样本输入双向长短期记忆(Bi LSTM)网络进一步提取文本的上下文特征,输出预测答案。实验结果表明,该模型在简体中文数据集CMRC2018上的F1值和精准匹配(EM)值分别较基线模型提高了1.39和3.85个百分点,在繁体中文数据集DRCD上的F1值和EM值分别较基线模型提高了1.22和1.71个百分点,在英文数据集SQu ADv1.1上的F1值和EM值分别较基线模型提高了2.86和1.85个百分点,优于已有的大部分机器阅读理解模型,并且在真实问答结果上与基线模型进行对比,结果验证了该模型具有更强的鲁棒性和泛化能力,在输入的问题存在噪声的情况下性能更好。 展开更多
关键词 机器阅读理解 对抗训练 预训练模型 掩码校正的来自Transformer的双向编码器表示 双向长短期记忆网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部