期刊文献+
共找到10篇文章
< 1 >
每页显示 20 50 100
面向蒙医知识抽取的小样本综合数据集的构建及应用
1
作者 王玉荣 林民 +3 位作者 胡其吐 白双成 李艳玲 包龙杰 《计算机工程与应用》 北大核心 2026年第3期175-186,共12页
为更好地适应提示学习,研究者们提出了基于机器阅读理解(machine reading comprehension,MRC)的知识抽取方法。该方法通过构建问题、文本和答案的结构,利用提示引导模型关注相关信息,从而有效提取所需知识。然而,由于蒙古语属于低资源语... 为更好地适应提示学习,研究者们提出了基于机器阅读理解(machine reading comprehension,MRC)的知识抽取方法。该方法通过构建问题、文本和答案的结构,利用提示引导模型关注相关信息,从而有效提取所需知识。然而,由于蒙古语属于低资源语言,且蒙医领域的标注数据相对匮乏,蒙医知识抽取仍处于探索阶段。构建数据集是首要任务。构建蒙医知识抽取的数据集也面临着诸多挑战,主要集中在蒙古语的语言特性、医疗文本的多样性以及小样本学习的适用性上。提出了一种针对蒙医知识抽取的小样本综合数据集的构建方案,并构建了MDRE数据集。该数据集将蒙古文的语言知识和蒙医领域知识标注在数据集中,最后转换为MRC格式存储,以便引入提示学习。数据集定义了6种实体类型和4种实体关系类型并进一步细化为8种子关系。为验证数据集的有效性,构建了基于MRC的多任务软提示调优知识抽取模型(multi-task relation extraction model,MTRE)。实验证明,在MDRE数据集上使用MTRE模型进行知识抽取时,模型表现优异,验证了数据集和方法的有效性。 展开更多
关键词 蒙医知识抽取 小样本综合数据集 软提示学习 蒙古语语言特征
在线阅读 下载PDF
基于预训练模型软提示微调的无监督短语抽取方法 被引量:1
2
作者 龙彪 线岩团 +1 位作者 郭军军 黄于欣 《微电子学与计算机》 2025年第1期17-25,共9页
关键短语是文章中含有重要信息的词语或短语,能够概括文章的主题和主要内容。关键短语抽取则是信息检索和文本搜索领域的重要任务。目前主流的短语抽取方法是多段式的,其中第一阶段的候选短语选取对结果有较大的影响。由于预训练语言模... 关键短语是文章中含有重要信息的词语或短语,能够概括文章的主题和主要内容。关键短语抽取则是信息检索和文本搜索领域的重要任务。目前主流的短语抽取方法是多段式的,其中第一阶段的候选短语选取对结果有较大的影响。由于预训练语言模型没有专门针对短语抽取任务进行设计,所以单纯的通过嵌入比较无法准确衡量短语和文档之间的相关性。针对上述问题,提出了一种利用软提示微调进行无监督关键短语抽取的方法。首先,引入前缀向量对单词的噪声信息和语义信息进行建模,并通过线性变换对预训练模型的输出做进一步的特征提取。其次,通过KL散度加大单词在这两种信息上的差异化,使用方差损失防止模型出现坍缩。最后,以两种信息差异化的程度一步式确定单词的重要性得到关键短语。在Inspec和SemEval2017数据集上进行了模型有效性实验,结果表明,与现有方法比较,F1分数平均提升1%。 展开更多
关键词 短语抽取 软提示微调 一步式 信息分数差
在线阅读 下载PDF
基于双向软模板方式提示学习的藏文文本分类
3
作者 周明军 李秉林 +1 位作者 群诺 尼玛扎西 《中文信息学报》 北大核心 2025年第1期16-27,共12页
藏文文本分类是藏语自然语言处理中的一项基础任务,在舆情监测、新闻推送、邮件分类等领域具有重要价值。预训练语言模型加微调的方式是目前主流的文本分类方法。然而,受限于有限的藏文标注数据和计算资源,使用该方法微调更大模型进行... 藏文文本分类是藏语自然语言处理中的一项基础任务,在舆情监测、新闻推送、邮件分类等领域具有重要价值。预训练语言模型加微调的方式是目前主流的文本分类方法。然而,受限于有限的藏文标注数据和计算资源,使用该方法微调更大模型进行文本分类研究变得非常困难。针对上述问题,该文提出了一种基于双向软模板方式提示学习的藏文文本分类方法。具体来说,传统的软模板方式提示学习只在输入文本嵌入向量前面添加可优化的软模板向量,但为了适应藏文语法结构,该文方法在输入文本嵌入向量首尾都进行软模板向量拼接。通过当前藏文两个主流藏文文本分类任务(情感分类、新闻主题分类)进行验证,结果表明,该文方法对于预训练语言模型(Pre-trained Language Model,PLM)的分类效果有显著提升。尤其在少样本实验中表现出色,其中,新闻主题分类的Macro-F_(1)值最高提升了5.7%,情感分类的Macro-F_(1)值最高提升了8.3%。 展开更多
关键词 藏文 软模板方式提示学习 预训练语言模型
在线阅读 下载PDF
基于层级软提示交互融合的少样本事件方面类别检测方法
4
作者 艾传鲜 郭军军 尹兆良 《计算机工程》 北大核心 2025年第9期120-128,共9页
事件方面类别检测(ACD)旨在识别出给定事件文本中的方面类别,相关研究可以辅助获取不同领域和事件文本中的关键信息,特别是在社交媒体舆情研究中具有实用价值。在社交媒体舆情事件发展前期,事件文本标记数据稀缺,如何基于少量标记数据... 事件方面类别检测(ACD)旨在识别出给定事件文本中的方面类别,相关研究可以辅助获取不同领域和事件文本中的关键信息,特别是在社交媒体舆情研究中具有实用价值。在社交媒体舆情事件发展前期,事件文本标记数据稀缺,如何基于少量标记数据实现准确的事件方面检测是一个亟待解决的问题。提出一种基于预训练模型的多层级软提示交互融合少样本事件方面类别检测方法,基于预训练构建多层级的软提示模板,分别与预训练模型进行层级语义表征和交互融合,并自适应地融合多层级的提示表征,从而提升少样本事件方面类别检测的效果。在自构建中文社交媒体少样本数据集和英文数据集上进行实验,实验结果证明所提方法明显优于其他基线方法,此外,消融实验和可视化结果验证了所提多层级提示交互融合模块的有效性。 展开更多
关键词 少样本 提示学习 软提示 方面类别检测 多层级提示交互融合
在线阅读 下载PDF
基于软提示微调和强化学习的网络安全命名实体识别方法研究 被引量:2
5
作者 田泽庶 刘春雨 +3 位作者 张云婷 张嘉宇 孟超 张宏莉 《通信学报》 EI CSCD 北大核心 2024年第10期1-16,共16页
随着网络技术的迅猛发展,新型网络安全威胁不断涌现,网络安全命名实体识别重要性日益增加。针对现有基于大语言模型的命名实体识别方法在网络安全领域识别准确率差的问题,提出了一种结合软提示微调和强化学习的网络安全命名实体识别方... 随着网络技术的迅猛发展,新型网络安全威胁不断涌现,网络安全命名实体识别重要性日益增加。针对现有基于大语言模型的命名实体识别方法在网络安全领域识别准确率差的问题,提出了一种结合软提示微调和强化学习的网络安全命名实体识别方法。通过结合软提示微调技术,针对网络安全领域的复杂性,精细调整大语言模型的识别能力,提升模型对网络安全命名实体的识别准确率,同时优化训练效率。此外,提出了基于强化学习的网络安全实体筛选器,可以有效去除训练集中的低质量标注,从而提升识别准确率。在2个开源基准网络安全实体识别数据集上评估了所提方法,实验结果表明,所提方法的F1值优于现有最佳的网络安全命名实体识别方法。 展开更多
关键词 网络安全命名实体识别 软提示微调 强化学习 大规模预训练模型
在线阅读 下载PDF
基于LSTM和位置增强的软提示向量优化 被引量:1
6
作者 刘振东 程春玲 刘倩 《计算机技术与发展》 2024年第10期118-125,共8页
软提示学习是应用预训练语言模型的新兴方法,然而软提示学习所生成的向量可能缺乏序列结构,影响模型在特定位置定义信息的能力导致模型的性能受损。为此,该文深入探究软提示向量序列结构及其对模型性能的影响,发现软提示向量在不同语言... 软提示学习是应用预训练语言模型的新兴方法,然而软提示学习所生成的向量可能缺乏序列结构,影响模型在特定位置定义信息的能力导致模型的性能受损。为此,该文深入探究软提示向量序列结构及其对模型性能的影响,发现软提示向量在不同语言模型类型、模型规模、下游任务类型及提示长度均展现出顺序敏感的问题。针对该问题,提出一种基于LSTM和位置增强的软提示排序网络,首先采用改进的LSTM网络实现软提示排序调优,其中对每个门控处添设提示选择门,以捕获序列信息生成优序的软提示向量。其次针对排序过程提出一种位置增强模块,结合绝对与相对位置信息优化排序。在GLUE数据集上的测试表明,该方法相较于基线带来了平均3.1%的性能提升。 展开更多
关键词 软提示向量 序列结构 顺序敏感性 位置编码 长短期记忆
在线阅读 下载PDF
基于内部知识扩展的软提示学习点击诱饵检测方法
7
作者 董丙冰 吴信东 《模式识别与人工智能》 EI CSCD 北大核心 2024年第9期798-810,共13页
点击诱饵的主要目的是通过引导用户点击链接以增加页面浏览量和广告收入.点击诱饵的内容往往具有低质量、误导性或虚假性的特征,对用户产生潜在不利影响.现有的基于预训练语言模型的提示学习方法依赖外部开放知识库以检测点击诱饵,不仅... 点击诱饵的主要目的是通过引导用户点击链接以增加页面浏览量和广告收入.点击诱饵的内容往往具有低质量、误导性或虚假性的特征,对用户产生潜在不利影响.现有的基于预训练语言模型的提示学习方法依赖外部开放知识库以检测点击诱饵,不仅性能受制于外部知识库的质量和可用性,而且不可避免地导致查询和响应的延迟.为此,文中提出基于内部知识扩展的软提示学习点击诱饵检测方法,从训练数据集本身提取扩展词,同时采用层次聚类和优化策略,在提示学习中对获得的扩展词进行微调,避免从外部知识库检索知识.此外,采用软提示学习可获得适合特定文本类型的最佳提示,避免手工模板带来的偏差.在少样本场景下,尽管文中方法只基于内部知识进行扩展,但在三个公开的点击诱饵数据集上可以以较少的时间取得较优的检测效果. 展开更多
关键词 点击诱饵检测 软提示 内部知识扩展 提示学习
在线阅读 下载PDF
适合汉语全拼输入的提示性软键盘的研发与验证
8
作者 毕纪灵 刘宏艳 葛列众 《心理科学》 CSSCI CSCD 北大核心 2015年第4期828-833,共6页
本研究设计了两种基于汉语全拼输入的提示性软键盘:加粗加黑和颜色提示,并通过实证性研究验证了这两种提示性软键盘对汉字输入绩效的影响。结果表明,两种提示性软键盘均优于非提示性软键盘,在打字速度、使用方便程度、喜爱程度和总体评... 本研究设计了两种基于汉语全拼输入的提示性软键盘:加粗加黑和颜色提示,并通过实证性研究验证了这两种提示性软键盘对汉字输入绩效的影响。结果表明,两种提示性软键盘均优于非提示性软键盘,在打字速度、使用方便程度、喜爱程度和总体评价上均更好,加粗加黑提示性软键盘还显著提升了输入正确率。该结果为基于汉字输入的提示性软键盘的研发和使用提供了科学依据和数据支持,也将为相关键盘的投入市场做出贡献。 展开更多
关键词 提示性软键盘 汉语全拼 加粗加黑 背景颜色 可用性
原文传递
显式语义解耦与软提示驱动的组合零样本识别
9
作者 刘杰 陶重犇 +2 位作者 沈忠伟 罗喜召 曹峰 《中国图象图形学报》 2026年第3期850-861,共12页
目的组合零样本学习(compositional zero-shot learning,CZSL)的目标是识别未见的状态—物体组合。然而,现有方法普遍存在状态与物体特征混淆,以及跨模态语义对齐不足的问题,导致模型在未见组合上的泛化能力受限。本文提出一种融合显式... 目的组合零样本学习(compositional zero-shot learning,CZSL)的目标是识别未见的状态—物体组合。然而,现有方法普遍存在状态与物体特征混淆,以及跨模态语义对齐不足的问题,导致模型在未见组合上的泛化能力受限。本文提出一种融合显式语义解耦与软提示机制的跨模态组合零样本识别方法,旨在通过显式语义解耦与软提示机制,提升模型在组合零样本识别中的表现。方法在语言模态端,构建可学习的软提示结构,生成结构化语义引导信号以增强状态与物体的区分性;在视觉模态端,基于变分自编码器(variational autoencoder,VAE)设计显式语义解耦机制,将图像特征划分为状态与物体两个子空间,并引入对抗判别器,通过对抗训练强化特征独立性和判别性。进一步地,提出跨模态关系融合模块,实现语言与视觉语义的有效对齐。结果在MIT-States、UT-Zappos和C-GQA(compositional GQA)3个基准数据集上进行的实验表明,本文方法在未见组合识别任务中取得了显著优势。在MIT-States数据集上的未见组合准确率达到54.2%,较当前最佳方法提升1.3%;在UT-Zappos和C-GQA数据集上,同样实现了超过现有方法的性能提升。消融实验与可视化分析验证了软提示结构、语义解耦机制与对抗判别器的有效性。结论本文提出的跨模态组合零样本识别方法有效缓解了状态与物体特征混淆以及跨模态语义不对齐的问题,显著提升了模型在未见组合上的泛化能力。该方法为组合零样本学习提供了一种结构清晰、泛化性能优越的新范式,具有重要的理论意义与应用价值。 展开更多
关键词 组合零样本学习(CZSL) 语义解耦 跨模态对齐 软提示 对抗训练
原文传递
基于检索增强生成与软提示优化的大模型开放域问答方法
10
作者 刘浩然 《建模与仿真》 2025年第4期901-913,共13页
针对大语言模型(LLM)在开放域问答任务中长尾知识处理能力不足的问题,本文提出了一种融合检索增强生成(RAG)与软提示优化的新型框架SOFTRAG,旨在提升模型对低频知识的利用效率并缓解传统方法的局限性。研究结合检索增强生成(RAG)与软提... 针对大语言模型(LLM)在开放域问答任务中长尾知识处理能力不足的问题,本文提出了一种融合检索增强生成(RAG)与软提示优化的新型框架SOFTRAG,旨在提升模型对低频知识的利用效率并缓解传统方法的局限性。研究结合检索增强生成(RAG)与软提示优化技术,并引入基于Perceiver的软提示适配器用于提取关键信息,同时采用LoRAMoE方法实现参数高效微调。在PopQA、TriviaQA、PubHealth和ASQA等数据集上,SOFTRAG框架在准确率、推理精度及泛化能力上均显著超越无检索基线和传统RAG方法。消融实验进一步验证了软提示、检索模块和微调技术对性能提升的关键作用。本研究方法有效平衡了性能与资源开销,显著改善了大模型在处理长尾知识任务中的表现,为开放域问答提供了新的优化思路。 展开更多
关键词 长尾知识 检索增强生成 软提示 大语言模型
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部