期刊文献+
共找到334篇文章
< 1 2 17 >
每页显示 20 50 100
论《诗经·江汉》中的“王命”书写——兼论周代歌诗创制的“前文本”问题
1
作者 李辉 《杜甫研究学刊》 2026年第2期76-87,共12页
《诗经·江汉》中有多处以“王命召虎”的形式领起宣王的命辞,各家对“王命”的次数、时地、背景却多有分歧。结合西周册命典礼、册命金文书写情况,可知《江汉》有且只有一次“王命”,其命辞作于召虎征伐淮夷、经营江汉凯旋后,宣王... 《诗经·江汉》中有多处以“王命召虎”的形式领起宣王的命辞,各家对“王命”的次数、时地、背景却多有分歧。结合西周册命典礼、册命金文书写情况,可知《江汉》有且只有一次“王命”,其命辞作于召虎征伐淮夷、经营江汉凯旋后,宣王于岐周褒奖、赐命召虎的典礼上。诗中叙及出征、誓戒、经营等情形,都是在功成赐命典礼上的追述。“江汉浮浮”“江汉汤汤”及“江汉之浒,王命召虎”的表述,与王命的实际时地并不相关,宣王并未亲赴江汉赐命。诗以“江汉”起兴点染,且形成部分重章的乐章效果,是以命辞为“前文本”、敷衍成诗乐的常见艺术手法。这种据“前文本”改编入乐的歌诗创制手法,在《诗经》中运用广泛,体现了周代王官撰作职能的互通与文本的互动,反映了礼乐歌诗书写的独特兴趣和价值。 展开更多
关键词 《江汉》 王命 册命 召虎 前文本
在线阅读 下载PDF
标签注意力初始化对ICD自动编码的性能影响研究
2
作者 任艳 吴雪丽 徐春 《现代电子技术》 北大核心 2026年第8期71-79,共9页
针对国际疾病分类(ICD)自动编码中标签注意力参考信息选择缺乏规范性的问题,系统评估CNN、Bi-GRU、BiLSTM和Clinical-Longformer四种典型文本编码器架构在不同标签参考信息初始化方式下的性能表现,重点比较随机初始化与预训练描述注入... 针对国际疾病分类(ICD)自动编码中标签注意力参考信息选择缺乏规范性的问题,系统评估CNN、Bi-GRU、BiLSTM和Clinical-Longformer四种典型文本编码器架构在不同标签参考信息初始化方式下的性能表现,重点比较随机初始化与预训练描述注入两种策略的差异。同时,为探索外部知识对注意力机制的增强作用,将ICD编码的层次结构关系与多同义词信息融入标签参考表达,构建了扩展的标签注意力模型。基于公开医学数据集MIMIC-Ⅲ,综合分析不同设计对编码性能的影响,并通过注意力得分可视化对比各文本编码器与注意力机制的特性。结果表明,预训练参考信息、层次化设计与多同义词建模均能有效提升编码性能,但其效果随数据规模和标签空间增大而逐渐减弱。实验结果为标签参考信息的合理初始化选择、外部知识融合策略的制定以及文本编码器架构的适配提供了重要的系统性实验依据和优化方向。 展开更多
关键词 ICD自动编码 标签注意力 文本编码器 预训练语言模型 层次结构 注意力机制 自然语言处理
在线阅读 下载PDF
基于改进型BERT预训练模型的大规模文本语义匹配方法
3
作者 周晓飞 《西昌学院学报(自然科学版)》 2026年第1期84-92,102,共10页
大规模文本数据具有数据量庞大的特点,且同一词汇在不同语境下可能具有完全不同的含义。仅依赖固定规则或模型,难以适应动态的语义变化,这会导致信息丢失和语义不完整。在这种情况下,无法捕捉到深层次的语义信息和语境关系,进而影响语... 大规模文本数据具有数据量庞大的特点,且同一词汇在不同语境下可能具有完全不同的含义。仅依赖固定规则或模型,难以适应动态的语义变化,这会导致信息丢失和语义不完整。在这种情况下,无法捕捉到深层次的语义信息和语境关系,进而影响语义匹配的准确性。为解决这一问题,本文提出基于改进型双向编码器表征(bidirectional encoder representations from transformers,BERT)模型的大规模文本语义匹配方法。该改进的BERT预训练模型通过文本词向量的位置编码来增强文本的语境信息特征,从而有效捕捉文本的语境信息。此外,采用注意力机制动态计算特征融合权重,并通过加权融合方法生成文本的融合语义特征。通过文本特征信息提取、多维知识编码、融合语义标签生成以及语义匹配关系预测4个步骤,评估待匹配文本之间的语义一致性。本文设定一致性阈值为0.8,即当预测值超过0.8时,认为待匹配文本具有较高的语义一致性,从而实现准确的文本语义匹配。实验结果表明,基于大规模文本样本数据得到的平均倒数排名(mean reciprocal rank,MRR)高于0.7,且与对比方法相比,匹配结果更加准确。 展开更多
关键词 改进型BERT预训练模型 融合特征 位置编码 文本向量化 注意力机制 语义匹配
在线阅读 下载PDF
基于语料库与预训练模型的非遗实体识别
4
作者 张新生 杨颖洁 《计算机工程与设计》 北大核心 2026年第1期286-293,共8页
针对非遗领域文本语料稀缺,且非遗文本具有复杂语义特征导致命名实体识别精度不高的问题进行研究。构建非遗文本语料库ICHSX-NER,其实体字符串一致性和类型一致性分别为0.9530、0.9758。提出一种RBL-CFER实体识别模型,使用RoBERTa-wwm-... 针对非遗领域文本语料稀缺,且非遗文本具有复杂语义特征导致命名实体识别精度不高的问题进行研究。构建非遗文本语料库ICHSX-NER,其实体字符串一致性和类型一致性分别为0.9530、0.9758。提出一种RBL-CFER实体识别模型,使用RoBERTa-wwm-ext预训练语言模型提取高精度的词嵌入向量,借助BiLSTM提取非遗文本特征,CRF完成实体标签序列预测,实现对非遗文本语料中实体及其类别的识别。在自建语料库ICHSX-NER上进行多组实验,实验结果表明:模型的macro-F1值达90.62%,验证了在非遗文本实体识别任务中的有效性。 展开更多
关键词 命名实体识别 预训练语言模型 非遗文本语料库 动态全词掩码策略 双向长短期记忆网络 条件随机场 深度学习
在线阅读 下载PDF
基于辅助任务与知识蒸馏的中文短文本分类算法
5
作者 陈昊 金广星 苏航 《武汉大学学报(工学版)》 北大核心 2026年第2期308-318,共11页
在短文本分类这一热门研究领域,预训练模型虽表现出色,但存在数据表征散布和转移学习受限等问题,导致分类效果降低。尽管诸如ERNIE(enhanced representation through knowledge integration)等大模型提升了分类效果,但由于其速度慢、资... 在短文本分类这一热门研究领域,预训练模型虽表现出色,但存在数据表征散布和转移学习受限等问题,导致分类效果降低。尽管诸如ERNIE(enhanced representation through knowledge integration)等大模型提升了分类效果,但由于其速度慢、资源需求大、受硬件限制等问题,难以应用于工业生产。为此提出了基于ERNIE的辅助任务模型EL(ERNIE+LAT(learning with auxiliary tasks)),旨在验证其获取更优类别特征的可行性。针对工业任务落地需求,同时提出知识蒸馏法,对EL与TextCNN模型进行蒸馏训练,以验证其在提升分类效果以及线上推理效率方面的可行性。研究验证现有预训练模型在公共数据集上的分类优势;采用辅助任务结合预训练模型的方法进行实验改进;并基于知识蒸馏法深入推进模型加速研究。实验表明,通过联合训练能够提升模型的泛化能力与特征提取能力,进而增强特定任务下的学习能力;学生模型TextCNN经蒸馏后不仅可与教师模型相媲美,在线上部署时还更具优势。 展开更多
关键词 短文本分类 深度学习 预训练模型 辅助任务 知识蒸馏
原文传递
基于多提示和图文对比学习的服装检索
6
作者 孙圆 王康平 赵鸣博 《计算机工程》 北大核心 2026年第2期322-330,共9页
随着多模态学习的不断发展,图像检索领域也面临新的机遇和挑战。现有的服装检索模型大多基于卷积神经网络或者Transformer的单模态模型实现,忽略了图像对应的丰富文本信息,模型能学习到的特征相对单一。为此,提出一种基于多提示和图文... 随着多模态学习的不断发展,图像检索领域也面临新的机遇和挑战。现有的服装检索模型大多基于卷积神经网络或者Transformer的单模态模型实现,忽略了图像对应的丰富文本信息,模型能学习到的特征相对单一。为此,提出一种基于多提示和图文对比学习的服装检索方法。引入图像文本多提示学习,引导多模态大模型FashionCLIP学习服装的多维高语义多模态特征,为提高模型的检索能力以及充分挖掘多模态模型的检索潜力,分两阶段优化模型。第一阶段冻结图像和文本编码器,通过图像文本交叉熵损失函数优化文本提示;第二阶段冻结文本提示和文本编码器,通过三元组损失、分类损失和图像文本交叉熵损失函数优化图像提示和图像编码器。在淘宝直播多模态视频商品检索数据集WAB上的域内检索和跨域检索实验结果表明:该方法在域内检索的均值平均精度(mAP)和Rank-1相对于传统方法至少提升6.1和3.5百分点,在跨域检索的mAP和Rank-1相对于传统方法至少提升8.4和6.4百分点,检索性能得到了显著提升,证明了图文对比学习在服装检索领域的潜力。 展开更多
关键词 服装检索 图文对比学习 预训练模型 跨模态检索 提示学习
在线阅读 下载PDF
基于主题约束采样的文本生成方法
7
作者 冉文议 万家强 +3 位作者 喻靖峰 李琪玥 陈鼎丽 邢欣来 《计算机工程与应用》 北大核心 2026年第6期134-145,共12页
预训练语言模型通过精调使其能够具有本地语料的相关知识和用语习惯,但通常面临高昂的训练成本和资源开销。因此,提出了一种基于主题约束的采样方法。该方法利用本地语料构建潜在狄利克雷分布(latent Dirichlet allocation,LDA)主题模型... 预训练语言模型通过精调使其能够具有本地语料的相关知识和用语习惯,但通常面临高昂的训练成本和资源开销。因此,提出了一种基于主题约束的采样方法。该方法利用本地语料构建潜在狄利克雷分布(latent Dirichlet allocation,LDA)主题模型;利用LDA对输出内容进行主题约束。一方面,这种方法简单易实现;另一方面,该方法增强了模型在本地语料上的泛化能力。实验结果表明,所提出的方法在多样性指标和泛化性指标上相较于基线模型明显提升。 展开更多
关键词 预训练语言模型 主题约束 文本生成 采样策略
在线阅读 下载PDF
基于角色信息引导的电力工程报告事件抽取技术研究
8
作者 冯勇 任宦屹 +2 位作者 蒋贵丰 何宏健 覃湜 《电力勘测设计》 2026年第3期88-94,共7页
为满足电力行业数字化转型中工程报告关键要素自动化抽取的需求,本文针对电力工程报告文本“结构固定、术语规范、高准确性要求”特征,提出以角色信息引导的多轮事件论元抽取技术为核心的方案。方案分三个阶段:1)领域预训练增强阶段构... 为满足电力行业数字化转型中工程报告关键要素自动化抽取的需求,本文针对电力工程报告文本“结构固定、术语规范、高准确性要求”特征,提出以角色信息引导的多轮事件论元抽取技术为核心的方案。方案分三个阶段:1)领域预训练增强阶段构建电力语料库,优化术语表征并搭建“电力术语-要素角色”关联图;2)结构化抽取阶段构建角色-标签映射体系,通过多轮循环抽取输出角色-论元结果;3)后处理阶段结合规则校验与SGNCL子图对比学习保障结果合规。关键模型方面,语义编码层用中文BERT编码文本与角色知识,角色融合层实现二者深度融合。研究表明,该方案可提升抽取准确性与效率,为电力设计行业知识自动化管理提供支撑。 展开更多
关键词 角色信息引导 电力工程报告文本 预训练语言模型 事件抽取 结构化抽取
在线阅读 下载PDF
清代以前中国古籍有关东南亚音乐的记述与史料价值
9
作者 袁寿玉 孙梦青 《北方音乐》 2026年第1期92-103,144,共13页
中国古籍中有关东南亚音乐的记述最早可追溯至公元2世纪,从汉唐至明清,历朝文献的记述对于东南亚音乐研究有着重要价值。文章围绕两个部分进行探讨:其一,清朝以前有关东南亚音乐记述的古籍与所记诸国古今地名的梳理;其二,清朝以前中国... 中国古籍中有关东南亚音乐的记述最早可追溯至公元2世纪,从汉唐至明清,历朝文献的记述对于东南亚音乐研究有着重要价值。文章围绕两个部分进行探讨:其一,清朝以前有关东南亚音乐记述的古籍与所记诸国古今地名的梳理;其二,清朝以前中国古籍中关于东南亚音乐的记述,包括朝贡献乐、地方风俗用乐以及出使游历所见等。 展开更多
关键词 清代以前 古籍 东南亚音乐 史料 价值
在线阅读 下载PDF
一种基于预训练语言模型的多特征融合文章对匹配模型
10
作者 陆顺意 何庆 《计算机工程与科学》 北大核心 2026年第2期363-371,共9页
针对传统文本语义匹配方法存在难以深入挖掘文本间深度语义特征及交互关系的问题,提出了一种基于预训练语言模型的多特征融合文章对匹配模型MF-APM。首先,通过数据增强策略对文章内容进行删减,以筛选出关键句子。其次,将增强后的新闻文... 针对传统文本语义匹配方法存在难以深入挖掘文本间深度语义特征及交互关系的问题,提出了一种基于预训练语言模型的多特征融合文章对匹配模型MF-APM。首先,通过数据增强策略对文章内容进行删减,以筛选出关键句子。其次,将增强后的新闻文档输入到具有孪生网络结构的Longformer模型来提取文章内容的深层特征,结合注意力特征融合方法得到文档匹配信息。其次,使用BERT对新闻标题进行交互式编码,将得到的编码向量输入到多头注意力机制中,以提取标题的深层次交互特征,进而获得标题交互信息。最后,通过将标题交互信息和文档交互信息的语义特征通过最大池化特征融合的方式实现文本对关系的预测。此外,在模型训练过程中,还引入了PolyLoss来代替传统的二进制交叉熵损失函数,有效降低了超参数调整的复杂性。将提出的MF-APM与其他匹配模型在CNSE和CNSS这2个数据集上进行比较,实验结果相较于基线模型,MF-APM模型在CNSE和CNSS数据集上的准确率分别至少提升了0.41和1.59个百分点,F 1值分别至少提升了4.64和1.66个百分点,有效提升了文章对匹配任务的准确性。 展开更多
关键词 预训练语言模型 长文本匹配 多头注意力机制 注意力特征融合 PolyLoss函数
在线阅读 下载PDF
基于大模型标签蒸馏的搜索意图识别
11
作者 李睿琪 秦志鹏 《现代信息科技》 2026年第3期40-44,共5页
在搜索引擎中,准确识别用户查询的意图对提升搜索体验至关重要。搜索意图识别属于短文本分类任务,传统方法依赖大量人工标注数据,成本高昂且难以适应新意图的快速涌现。文章提出的基于大模型标签蒸馏的搜索意图识别方法,利用大语言模型(... 在搜索引擎中,准确识别用户查询的意图对提升搜索体验至关重要。搜索意图识别属于短文本分类任务,传统方法依赖大量人工标注数据,成本高昂且难以适应新意图的快速涌现。文章提出的基于大模型标签蒸馏的搜索意图识别方法,利用大语言模型(如GPT4o、DeepSeek-R1、星火x1)的强大语义理解能力,为无标签查询指令生成高质量意图标签,构建训练数据集;进而通过知识蒸馏技术,将大模型的知识迁移至轻量级预训练模型(如ERNIE 3.0、BERT)进行微调。实验结果表明,该方法在13.6万规模的中文数据集上显著提升了模型性能,在降低标注成本的同时,有效提升了意图识别效率。 展开更多
关键词 意图识别 文本分类 标签蒸馏 大模型 预训练模型
在线阅读 下载PDF
用于高质量胸片数据合成的医学潜在扩散模型
12
作者 刘佳霖 孙丽萍 +1 位作者 韩力 杜慧江 《电子科技》 2026年第3期65-74,共10页
针对现有医学影像合成技术在准确捕捉复杂解剖结构和病理状态方面存在不足,从而生成低质量且与实际情况不符的胸片问题,文中提出了一种创新性的医学潜在扩散模型Chest-Chat。基于先前研究结果改进了所提模型,引入一种多模态文本编码器Me... 针对现有医学影像合成技术在准确捕捉复杂解剖结构和病理状态方面存在不足,从而生成低质量且与实际情况不符的胸片问题,文中提出了一种创新性的医学潜在扩散模型Chest-Chat。基于先前研究结果改进了所提模型,引入一种多模态文本编码器MedA-BERT(Medical Attention Strategy Pre-training of Deep Bidirectional Transformers for Language Understanding)。采用跨模态视觉-语言预训练策略构建该编码器并强化胸片影像与对应文本报告间的深刻语义联系,结合双向交叉注意力机制和对比学习显著增强了模型对医学影像报告语义的理解和处理能力。将MedA-BERT与潜在扩散模型的视觉模块相结合,使Chest-Chat能够生成具有详细解剖和病理描述的高质量胸片。在CheXpert和MIMIC-CXR(Chest X-ray)两个公开数据集上进行了广泛评估。实验结果表明,Chest-Chat的FID InceptionV3(Fréchet Inception Distance)、FID XRV和MS-SSIM(Multi-Scale Structural Similarity)分别为58.38、3.69和0.12±0.11,其表现优于现有方法。 展开更多
关键词 胸片 图像生成 多模态文本编码器 视觉-语言预训练 注意力机制 对比学习 潜在扩散模型 条件生成
在线阅读 下载PDF
遥感跨模态图文检索:关键技术与挑战
13
作者 王懿婧 唐旭 +1 位作者 韩硕 杜瑞琦 《遥感学报》 北大核心 2026年第2期262-278,共17页
遥感跨模态图文检索作为连接自然语言与遥感影像的桥梁,旨在构建高效的双向语义关联,是遥感数据智能化分析的关键技术。本文全面概述了遥感跨模态图文检索领域的技术演进与研究现状。首先,细致分析了主流基准数据集在规模、场景类别及... 遥感跨模态图文检索作为连接自然语言与遥感影像的桥梁,旨在构建高效的双向语义关联,是遥感数据智能化分析的关键技术。本文全面概述了遥感跨模态图文检索领域的技术演进与研究现状。首先,细致分析了主流基准数据集在规模、场景类别及文本标注质量方面的特点,并介绍了通用的评价指标体系,为后续方法研究奠定基础。其次,回顾了文本特征表示从传统统计到深度学习,以及遥感影像特征表示从手工特征到深度神经网络的技术突破。再次,以是否采用跨模态预训练模型为划分,深入剖析了基于非跨模态预训练和基于跨模态预训练方法的原理及模型特点,并通过在3个主流数据集上的实验对比,揭示了跨模态预训练方法的性能优势及其不同微调策略的数据适配规律。最后,本文总结了当前研究面临的细粒度语义对齐、多源数据融合与跨域泛化、以及时序动态匹配机制缺失等核心挑战,并展望了未来在细粒度特征增强、多源异构数据协同建模和时序感知对齐机制开发等方面的研究方向,以期推动遥感跨模态图文检索技术在实际应用中的深入发展。 展开更多
关键词 遥感影像 跨模态检索 图文关系建模 深度学习 预训练模型 语义对齐 特征表示 跨模态预训 练模型
原文传递
统一架构的多语种标点预测
14
作者 吴海波 李紫京 陈宋 《网络新媒体技术》 2026年第1期33-39,65,共8页
本文针对传统单语种标点预测方案训练成本高、跨语种迁移困难等问题,提出一种基于RoBERTa的统一多语种标点预测框架。该框架构建中、日、韩3语种混合语料库,采用统一的3种标点标签(COMMA、PERIOD、NONE)进行标注,实现单一模型对多语种... 本文针对传统单语种标点预测方案训练成本高、跨语种迁移困难等问题,提出一种基于RoBERTa的统一多语种标点预测框架。该框架构建中、日、韩3语种混合语料库,采用统一的3种标点标签(COMMA、PERIOD、NONE)进行标注,实现单一模型对多语种标点的同步端到端预测。实验结果表明,该模型与单语种基线相比,标点预测F1平均值差距仅为1.7%,各语种性能下降均未超过2%,验证了多语种统一建模在标点恢复任务中的有效性与可行性。 展开更多
关键词 多语种文本处理 标点符号预测 RoBERTa模型 预训练微调 混合语料库 统一标注体系 跨语种迁移 语义编码
在线阅读 下载PDF
融合预训练和双级元蒸馏的医学短文本分类方法 被引量:1
15
作者 廖列法 姜炫至 《计算机工程与应用》 北大核心 2025年第8期117-125,共9页
为解决医学文本使用预训练模型处理速度慢、对硬件的算力要求高、难以分辨少样本类别,以及使用传统小模型由于自身限制难以做到足够的准确度的问题,提出了一种融合预训练和元蒸馏的文本分类模型PTMD(fusion of pre-training and meta di... 为解决医学文本使用预训练模型处理速度慢、对硬件的算力要求高、难以分辨少样本类别,以及使用传统小模型由于自身限制难以做到足够的准确度的问题,提出了一种融合预训练和元蒸馏的文本分类模型PTMD(fusion of pre-training and meta distillation model)。PTMD针对医学文本的多标签问题,通过对比训练对RoBERTa预训练方法进行微调,再由双向内置注意力简单循环单元充分获取语义信息。最后在传统蒸馏模型的基础上融合元学习和助教的思想,通过教学实验和双级模型等方法,提高模型的教学水平,最终在减少训练成本的基础上得到一个高性能医学文本分类模型。实验结果表明,教师模型在CHIP2019评测三数据集上的F1值达到了85.47%,同时学生模型在F1值损失1.45个百分点的情况下,将模型规模缩小到教师模型的近1/6,效果高于大多数传统预训练模型和知识蒸馏模型,证明了该模型具有良好的实用价值。 展开更多
关键词 文本分类 预训练模型 知识蒸馏
在线阅读 下载PDF
基于交替语言数据重构方法的跨语言文本相似度模型 被引量:1
16
作者 王轶 王坤宁 刘铭 《吉林大学学报(理学版)》 北大核心 2025年第2期551-558,共8页
针对现有多语言模型在预训练过程中对多语言数据集的利用效率低,导致跨语言上下文学习能力不足,进而产生语言偏差的问题,提出一种基于交替语言数据重构方法的跨语言文本相似度模型.该方法通过对称地替换平行语料中的中英文词语,形成重... 针对现有多语言模型在预训练过程中对多语言数据集的利用效率低,导致跨语言上下文学习能力不足,进而产生语言偏差的问题,提出一种基于交替语言数据重构方法的跨语言文本相似度模型.该方法通过对称地替换平行语料中的中英文词语,形成重构的预训练文本对,并利用上述文本对对多语言大模型mBERT(BERT-based-multilingual)进行基于数据重构的针对性预训练和微调处理.为验证该模型的可行性,在联合国平行语料数据集上进行实验,实验结果表明,该模型的相似度查准率优于mBERT和其他两种基线模型,其不仅可以进一步提高跨语言信息检索的准确性,并且可以降低多语言自然语言处理任务的研究成本. 展开更多
关键词 mBERT模型 文本相似度 多语言预训练模型 大模型微调
在线阅读 下载PDF
高可用性的跨领域机器生成文本检测方法
17
作者 罗森林 杨宗源 +3 位作者 潘丽敏 周瑾洁 门元昊 李晔 《北京理工大学学报》 北大核心 2025年第12期1296-1304,共9页
AIGC已严重影响信息的真实性、可靠性,造成数据污染、产权归属、诚信危机等众多技术和社会问题.现有机器生成文本检测方法主要针对特定领域且检测准确率较低,更难用于敏感、私有、小样本等跨领域数据.针对该问题提出一种高可用性的跨领... AIGC已严重影响信息的真实性、可靠性,造成数据污染、产权归属、诚信危机等众多技术和社会问题.现有机器生成文本检测方法主要针对特定领域且检测准确率较低,更难用于敏感、私有、小样本等跨领域数据.针对该问题提出一种高可用性的跨领域机器生成文本检测方法.该方法优选任一领域内的类别中心样本训练生成专域编码器,利用领域特征增强边界区分性;构建一种正交损失函数联合专域编码器训练生成泛域编码器,强化机器生成文本的共性特征支持多领域机器生成文本的检测.真实数据实验结果表明,单领域检测模型无需微调即可在其他领域获得高检测准确率,适用范围广,实用性强. 展开更多
关键词 机器生成文本检测 域泛化 预训练语言模型
在线阅读 下载PDF
深层语义特征增强的ReLM中文拼写纠错模型
18
作者 张伟 牛家祥 +1 位作者 马继超 沈琼霞 《计算机应用》 北大核心 2025年第8期2484-2490,共7页
ReLM(Rephrasing Language Model)是当前性能领先的中文拼写纠错(CSC)模型。针对它在复杂语义场景中存在特征表达不足的问题,提出深层语义特征增强的ReLM——FeReLM(Feature-enhanced Rephrasing Language Model)。该模型利用深度可分... ReLM(Rephrasing Language Model)是当前性能领先的中文拼写纠错(CSC)模型。针对它在复杂语义场景中存在特征表达不足的问题,提出深层语义特征增强的ReLM——FeReLM(Feature-enhanced Rephrasing Language Model)。该模型利用深度可分离卷积(DSC)技术融合特征提取模型BGE(BAAI General Embeddings)生成的深层语义特征与ReLM生成的整体特征,从而有效提升模型对复杂上下文的解析力和拼写错误的识别纠正精度。首先,在Wang271K数据集上训练FeReLM,使模型持续学习句子中的深层语义和复杂表达;其次,迁移训练好的权重,从而将模型学习到的知识应用于新的数据集并进行微调。实验结果表明,在ECSpell和MCSC数据集上与ReLM、MCRSpell(Metric learning of Correct Representation for Chinese Spelling Correction)和RSpell(Retrieval-augmented Framework for Domain Adaptive Chinese Spelling Check)等模型相比,FeReLM的精确率、召回率、F1分数等关键指标的提升幅度可达0.6~28.7个百分点。此外,通过消融实验验证了所提方法的有效性。 展开更多
关键词 自然语言处理 特征增强 中文拼写纠错 语义融合 文本纠错 预训练语言模型
在线阅读 下载PDF
KAACNN:融合知识图谱和预训练模型的短文本多标签分类方法
19
作者 陶冶 徐锴 +2 位作者 刘天宇 鲁超峰 王浩杰 《中文信息学报》 北大核心 2025年第3期96-106,共11页
短文本分类是自然语言处理的重要任务之一。与段落或文档不同,短文本不完全遵循语法规则,长度短并且没有足够的上下文信息,这给短文本分类带来了很大的挑战。该文提出一种结合知识图谱和预训练语言模型的短文本分类方法,一方面使用预训... 短文本分类是自然语言处理的重要任务之一。与段落或文档不同,短文本不完全遵循语法规则,长度短并且没有足够的上下文信息,这给短文本分类带来了很大的挑战。该文提出一种结合知识图谱和预训练语言模型的短文本分类方法,一方面使用预训练语言模型提高短文本的文本表示能力;另一方面从外部知识库中检索短文本概念知识,并利用注意力机制将其与短文本结合用于分类任务。此外,针对数据集类别分布不均衡的问题,该文提出基于领域类别知识图谱的数据增强方法。在三个公共数据集和一个汽车领域客户原话数据集上进行了实验,结果表明,引入知识图谱和预训练语言模型的分类方法优于目前先进的短文本分类方法,证明了外部知识库和预训练语言模型的先验知识在短文本分类中的有效性。 展开更多
关键词 知识图谱 注意力机制 预训练语言模型 数据增强 短文本分类
在线阅读 下载PDF
大模型增强的跨模态图文检索方法 被引量:2
20
作者 罗文培 黄德根 《小型微型计算机系统》 北大核心 2025年第7期1544-1553,共10页
在跨模态图像-文本检索(ITR)任务中,基于transformer的跨模态预训练范式是现在的主流.预训练方法通常为预训练模型收集大规模的数据以提升模型在各种下游跨模态任务中的表现.为此,提出了一种数据增广方法以生成大量多样化高质量的文本-... 在跨模态图像-文本检索(ITR)任务中,基于transformer的跨模态预训练范式是现在的主流.预训练方法通常为预训练模型收集大规模的数据以提升模型在各种下游跨模态任务中的表现.为此,提出了一种数据增广方法以生成大量多样化高质量的文本-图像数据作为预训练数据;其次,提出了一种两阶段训练方法,结合了知识蒸馏和对比学习,在该文产出的数据集上进行训练,从而进一步提升模型性能.提出的模型在包括COCO-CN和Flickr30K-CN在内的中文文本-图像检索数据集上取得了SOTA. 展开更多
关键词 图像-文本检索 预训练 知识蒸馏 对比学习
在线阅读 下载PDF
上一页 1 2 17 下一页 到第
使用帮助 返回顶部