期刊文献+
共找到88篇文章
< 1 2 5 >
每页显示 20 50 100
PromptVis:面向文本生成图片的提示词的交互式可视分析方法 被引量:3
1
作者 卢裕弘 封颖超杰 +4 位作者 朱琳 周海怡 朱航 喻晨昊 陈为 《计算机辅助设计与图形学学报》 北大核心 2025年第4期688-696,共9页
高效地使用提示词实现文本到图片的生成是当前大模型的一个研究热点.针对现有工作在提示词工程方面的不足,提出一种面向文本生成图片的提示词的交互式可视分析方法——PromptVis,帮助用户评估并迭代改进提示词,以提升图片质量.首先对用... 高效地使用提示词实现文本到图片的生成是当前大模型的一个研究热点.针对现有工作在提示词工程方面的不足,提出一种面向文本生成图片的提示词的交互式可视分析方法——PromptVis,帮助用户评估并迭代改进提示词,以提升图片质量.首先对用户输入的提示词语句进行成分解析,并提供改进提示词的建议,如推荐相关的提示词;然后将用户输入与系统推荐的提示词集合进行聚类呈现,并支持用户交互探索;第三,从多个维度自动评估文本提示词和生成的图片,为用户修改提示词提供参考;第四,根据推荐的提示词对现有图片进行局部调整,支持用户预览提示词的修改效果.通过用户对比实验,从提示词创作效率分析和实用性问卷评估2个角度,证明了所提方法在辅助用户进行提示词创作上的实用性与有效性. 展开更多
关键词 文本生成图片 提示词工程 提示词可视化
在线阅读 下载PDF
Low Resource Chinese Geological Text Named Entity Recognition Based on Prompt Learning 被引量:2
2
作者 Hang He Chao Ma +6 位作者 Shan Ye Wenqiang Tang Yuxuan Zhou Zhen Yu Jiaxin Yi Li Hou Mingcai Hou 《Journal of Earth Science》 SCIE CAS CSCD 2024年第3期1035-1043,共9页
Geological reports are a significant accomplishment for geologists involved in geological investigations and scientific research as they contain rich data and textual information.With the rapid development of science ... Geological reports are a significant accomplishment for geologists involved in geological investigations and scientific research as they contain rich data and textual information.With the rapid development of science and technology,a large number of textual reports have accumulated in the field of geology.However,many non-hot topics and non-English speaking regions are neglected in mainstream geoscience databases for geological information mining,making it more challenging for some researchers to extract necessary information from these texts.Natural Language Processing(NLP)has obvious advantages in processing large amounts of textual data.The objective of this paper is to identify geological named entities from Chinese geological texts using NLP techniques.We propose the RoBERTa-Prompt-Tuning-NER method,which leverages the concept of Prompt Learning and requires only a small amount of annotated data to train superior models for recognizing geological named entities in low-resource dataset configurations.The RoBERTa layer captures context-based information and longer-distance dependencies through dynamic word vectors.Finally,we conducted experiments on the constructed Geological Named Entity Recognition(GNER)dataset.Our experimental results show that the proposed model achieves the highest F1 score of 80.64%among the four baseline algorithms,demonstrating the reliability and robustness of using the model for Named Entity Recognition of geological texts. 展开更多
关键词 prompt Learning Named Entity Recognition(NER) low resource geological text text information mining big data geology.
原文传递
基于关键词扩展与Prompt-BERT-RCNN模型的医疗问答社区短文本分类 被引量:1
3
作者 臧志栋 汤祖懿 +1 位作者 秦振凯 程结晶 《情报科学》 北大核心 2025年第6期148-155,163,共9页
【目的/意义】在医疗问答社区中实现短文本的自动分类对于提高其服务效率和改善用户体验至关重要。通过构建一个结合关键词扩展技术和深度学习模型的短文本分类方法,以解决短文本分类中的特征稀疏和语义不明确问题。【方法/过程】首先... 【目的/意义】在医疗问答社区中实现短文本的自动分类对于提高其服务效率和改善用户体验至关重要。通过构建一个结合关键词扩展技术和深度学习模型的短文本分类方法,以解决短文本分类中的特征稀疏和语义不明确问题。【方法/过程】首先运用网络爬虫获取医疗问答社区“寻医问药网”的用户问题短文本;然后利用TF-IWF加权关键词重要性,并通过FastText计算关键词相似度来扩展短文本特征;接着将提示学习与深度学习模型融合,构建Prompt-BERT-RCNN模型,实现医疗短文本的有效分类。【结果/结论】实证研究表明,关键词扩展后的分类效果显著高于扩展前,且Prompt-BERT-RCNN模型对扩展后的医疗短文本的分类准确率高达97.92%,并在9个不同医疗类别中均表现优异。【创新/局限】TF-IWF与FastText的短文本扩展方法弥补了Word2vec未考虑关键词稀有度和子词上下文信息方面的缺陷,Prompt-BERT-RCNN模型通过融合Prompt的引导、BERT的深层语义理解以及RCNN的区域感知和特征提取能力进一步提升了短文本的分类准确率;但模型在个别主题的准确率仍有待提升。 展开更多
关键词 医疗问答社区 关键词扩展 短文本分类 BERT-RCNN模型 提示学习
原文传递
基于Chinese-CLIP模型和Prompt提示机制的图文检索方法 被引量:2
4
作者 陈道彬 张子诺 +2 位作者 付裕彬 黎晋铭 林彬 《现代信息科技》 2025年第6期130-134,共5页
为提升图像文本匹配任务的准确率,提出了一种基于Chinese-CLIP模型和Prompt提示机制的图文检索方法。一方面,对文本数据进行预处理,去除停用词和标点符号后,利用BERT模型提取文本特征;另一方面,使用卷积神经网络提取图像特征,并将得到... 为提升图像文本匹配任务的准确率,提出了一种基于Chinese-CLIP模型和Prompt提示机制的图文检索方法。一方面,对文本数据进行预处理,去除停用词和标点符号后,利用BERT模型提取文本特征;另一方面,使用卷积神经网络提取图像特征,并将得到的文本与图像特征进行序列化,以实现多模态特征融合。模型训练时,先使用Chinese-CLIP大模型进行初步训练,再引入Prompt提示机制对模型进行微调。实验结果表明,所提方法在文搜图和图搜文两个任务上均有效地提升了准确率与召回率。 展开更多
关键词 图文检索 多模态特征融合 Chinese-CLIP模型 prompt提示机制
在线阅读 下载PDF
基于prompt的医疗大语言模型自适应优化方法 被引量:1
5
作者 陆鑫涛 孙丽萍 +2 位作者 童子龙 刘佳霖 凌晨 《智能计算机与应用》 2025年第8期190-196,共7页
在不需要人工参与及微调的情况下对回答进行自适应优化,提升医疗大语言模型的回答质量。本文提出了一种基于自适应提示的自适应优化方法,让模型对生成的答案进行自我批判分析并进行优化,实现改进医疗大语言模型的回答效果。经过GPT-4与... 在不需要人工参与及微调的情况下对回答进行自适应优化,提升医疗大语言模型的回答质量。本文提出了一种基于自适应提示的自适应优化方法,让模型对生成的答案进行自我批判分析并进行优化,实现改进医疗大语言模型的回答效果。经过GPT-4与医生的评判,经过该方法优化后,各医疗大语言模型的回答质量综合提升了8%~10%。受限于该方法本身基于循环迭代的特性,导致生成回答的速度较慢。此外,受限于医疗大模型的小参数量,导致个别情况下模型的评判分析能力不足,导致生成结果的瑕疵。本文提出的自适应优化方法能有效提升医疗大语言模型问答的准确性和相关性。 展开更多
关键词 医疗对话生成 受控文本生成 提示工程
在线阅读 下载PDF
基于RoBERTa-Prompt-R-Drop新闻主题分类
6
作者 郭伟翰 《计算机时代》 2025年第12期44-49,共6页
针对新闻主题文本分类面临的上下文缺失与数据稀疏挑战,本文提出一种融合RoBERTa、提示学习与R-Drop的联合优化框架。该框架利用提示学习将分类转化为掩码语言模型任务,激活RoBERTa的预训练语义知识以弥补上下文信息缺失;同时,采用R-Dro... 针对新闻主题文本分类面临的上下文缺失与数据稀疏挑战,本文提出一种融合RoBERTa、提示学习与R-Drop的联合优化框架。该框架利用提示学习将分类转化为掩码语言模型任务,激活RoBERTa的预训练语义知识以弥补上下文信息缺失;同时,采用R-Drop对同一输入的两次Dropout随机失活输出施加KL散度约束,实现无负样本的对比正则化,迫使模型学习对噪声不敏感的鲁棒表征,从而规避低质量负样本构造带来的问题。THUCNews数据集上的实验结果表明,本方法取得了96.61%的准确率,显著优于各基线模型,充分验证了该策略在提升分类精度与模型鲁棒性方面的有效性。 展开更多
关键词 文本分类 新闻主题 RoBERTa 提示学习 R-Drop
在线阅读 下载PDF
大模型提示工程能够替代经典深度学习模型吗?——基于医学文本实体关系抽取任务的对比研究
7
作者 段宇锋 谢佳宏 +1 位作者 柏萍 龚天阳 《数据分析与知识发现》 北大核心 2026年第1期61-75,共15页
【目的】探讨在具有较高专业性和领域特色的中文医学文本实体关系抽取任务中,大模型提示工程方法能否替代经典深度学习模型。【方法】使用GLM-4、ERNIE-4-Turbo、DeepSeek-R1三种大模型和CBLUE、CasRel、GPLinker三种经典深度学习模型,... 【目的】探讨在具有较高专业性和领域特色的中文医学文本实体关系抽取任务中,大模型提示工程方法能否替代经典深度学习模型。【方法】使用GLM-4、ERNIE-4-Turbo、DeepSeek-R1三种大模型和CBLUE、CasRel、GPLinker三种经典深度学习模型,通过改变需要抽取的关系类型数量、大模型Prompt中的示例数量以及经典深度学习模型的训练数据规模,系统比较基于提示工程的大模型与经典深度学习模型的性能差异。使用BERT-Base和RoBERTa作为经典深度学习模型的编码器。【结果】在CMeIE-V2数据集上的实验结果表明:(1)RoBERTa-CBLUE和RoBERTa-GPLinker的抽取效果最好,在抽取一种关系类型时F1值达到0.5826和0.5853,抽取10种关系类型时F1值为0.5112和0.4934;(2)大模型不擅长同时抽取多种关系。GLM-4、ERNIE-4-Turbo和DeepSeek-R1抽取两种关系类型的F1值比抽取一种关系类型时分别下降0.1182、0.0885、0.1310;(3)在Prompt中添加示例可以提高大模型的抽取效果,但示例数量并不是越多越好。【局限】仅在单一数据集上进行实验,未拓展至更多领域的数据集。【结论】大模型提示工程方法目前难以替代经典深度学习模型,仅能够在标注样本较少时作为备选项。 展开更多
关键词 提示工程 大语言模型 深度学习模型 实体关系抽取 中文医学文本
原文传递
面向短文本-多领域科技实体抽取的提示工程构建研究
8
作者 孙蒙鸽 王燕鹏 +1 位作者 付芸 刘细文 《数据分析与知识发现》 北大核心 2026年第1期133-149,共17页
【目的】在多领域科技实体抽取任务中,科技短文本通常存在因语义稀疏导致上下文信息不足、知识实体领域跨度大、实体边界模糊等问题。由此,本研究提出一种基于知识提示学习的Scientific Prompt知识实体抽取策略。【方法】首先提出以科... 【目的】在多领域科技实体抽取任务中,科技短文本通常存在因语义稀疏导致上下文信息不足、知识实体领域跨度大、实体边界模糊等问题。由此,本研究提出一种基于知识提示学习的Scientific Prompt知识实体抽取策略。【方法】首先提出以科技问题为基本切分单元的实体边界识别方法,以明确短文本中的知识实体边界;其次,利用知识蒸馏技术构建自动标注体系,获取小规模高质量多领域实体数据集。在此基础上,设计了包含BERTopic动态采样与自我一致性校验的两阶段Scientific Prompt策略,借助BERTopic将领域知识动态引入提示词中,以扩展稀疏短文本语义上下文。【结果】在Scientific Prompt策略作用下,Qwen2.5-7B、Qwen 2.5-7B(微调)与GPT-4o的F1值分别为0.6526、0.7407、0.7878;而Zero-Shot下对应模型的F1值分别为0.5534、0.6165、0.6822。在短文本-多领域实体抽取任务中,Scientific Prompt策略作用下的开源模型略优于对其微调的效果(0.6526 vs 0.6165);该策略作用下的微调Qwen 2.5-7B模型表现略优于仅使用GPT-4o的效果(0.7407 vs 0.6822)。【局限】仅测试了Scientific Prompt策略在中文科技短文本上的表现。【结论】与微调方式相比,Scientific Prompt策略无需更新模型参数即可显著提升大语言模型在短文本-多领域知识实体抽取任务中的性能。在大规模无监督科技短文本中,Scientific Prompt策略可以有效提升大语言模型在多领域知识实体识别中的语义理解和感知能力,增强抽取的精确性和泛化能力,为通用型中文科技短文本知识实体抽取任务提供了重要的技术路径参考。 展开更多
关键词 知识提示策略 多领域知识实体抽取 动态提示工程 科技短文本
原文传递
基于提示学习与自适应损失加权的汉越产业文本分类
9
作者 陈霖 马龙轩 +3 位作者 张勇丙 黄于欣 高盛祥 余正涛 《计算机科学》 北大核心 2026年第2期312-321,共10页
跨境产业文本分类是支撑跨境产业大数据分析的基础任务。随着东南亚地区跨境产业数据的快速增长,对产业数据的分析和处理,特别是对产业文本分类的需求也在日益增加。然而,当前跨境产业文本面临不同语种间的语言差异、语种间数据不均衡... 跨境产业文本分类是支撑跨境产业大数据分析的基础任务。随着东南亚地区跨境产业数据的快速增长,对产业数据的分析和处理,特别是对产业文本分类的需求也在日益增加。然而,当前跨境产业文本面临不同语种间的语言差异、语种间数据不均衡以及标注数据稀缺等问题,尤其在低资源语言中更加突出,导致跨境产业数据分类难度加大。针对这一问题,提出了一种基于提示学习和自适应损失加权策略的少样本跨境产业文本分类方法,显著提升了模型在跨境场景中的分类性能。具体而言,该模型基于提示学习框架缓解数据稀缺问题,利用预训练模型的先验知识增强少样本的学习能力;其次,通过构建跨语言文本对,实现语义空间的知识迁移和语义对齐;同时创新性地设计动态混合损失函数,将交叉熵损失、焦点损失和标签平滑损失进行多目标优化,并基于不确定性加权机制动态调整各损失项权重:交叉熵损失保障基础分类能力,焦点损失强化对难分类样本的关注,标签平滑则有效抑制过拟合风险。实验结果表明,所提方法在中文和越南语产业文本分类任务中显著优于现有主流方法,特别是在数据稀缺和语种不平衡的少样本学习场景下,提供了高效的解决方案,为低资源语言的处理提供了新的研究思路。 展开更多
关键词 跨境产业文本分类 少样本学习 提示学习 自适应损失加权
在线阅读 下载PDF
科技文献文本知识抽取的提示框架研究
10
作者 陈昱成 韩涛 胡正银 《现代情报》 北大核心 2026年第2期91-101,共11页
[目的/意义]在小样本的情况下,基于大语言模型的科技文献知识抽取方法被广泛应用,模型的效果依赖于提示词的框架质量,因此需设计高质量的科技文献知识抽取提示词框架。[方法/过程]本研究以有机太阳能电池领域为例,设计有机太阳能电池领... [目的/意义]在小样本的情况下,基于大语言模型的科技文献知识抽取方法被广泛应用,模型的效果依赖于提示词的框架质量,因此需设计高质量的科技文献知识抽取提示词框架。[方法/过程]本研究以有机太阳能电池领域为例,设计有机太阳能电池领域的知识抽取知识体系,设计科技文献自动知识抽取提示词框架,利用不同的大模型进行对比实验。[结果/结论]实验结果表明,在有机太阳能电池领域的期刊文献知识抽取任务中,相比于普通的提示词知识抽取的方法,利用本文提出的提示词框架方法效果更优。 展开更多
关键词 提示词框架 大模型 文本挖掘 有机太阳能电池 高质量数据基座建设
在线阅读 下载PDF
利用实体间提示的迭代式短文本实体链接方法
11
作者 应天和 胡建鹏 +2 位作者 李敏 刘岚 李安 《计算机工程与设计》 北大核心 2026年第2期536-543,共8页
为解决传统方法在短文本实体链接中因特征不足导致的准确率下降问题,提出一种基于实体间提示的迭代式实体链接方法。该方法使用预训练模型对实体提及进行分类,提高候选实体生成的准确性;通过注意力机制识别上下文中的关键关联实体,并结... 为解决传统方法在短文本实体链接中因特征不足导致的准确率下降问题,提出一种基于实体间提示的迭代式实体链接方法。该方法使用预训练模型对实体提及进行分类,提高候选实体生成的准确性;通过注意力机制识别上下文中的关键关联实体,并结合其知识库描述生成链接提示;为了避免初期提示造成的噪音和错误问题,对目标实体提及进行多轮迭代式链接,逐步提高链接准确率。在两个公开数据集上的实验结果显示,该方法在短文本实体链接任务上优于现有技术,尤其在小样本情况下表现出色,可有效应对上下文信息不足和样本量有限的挑战。 展开更多
关键词 实体消歧 提示学习 短文本特征抽取 注意力机制 多轮次迭代式实体链接 预训练模型 小样本实体链接
在线阅读 下载PDF
基于多提示和图文对比学习的服装检索
12
作者 孙圆 王康平 赵鸣博 《计算机工程》 北大核心 2026年第2期322-330,共9页
随着多模态学习的不断发展,图像检索领域也面临新的机遇和挑战。现有的服装检索模型大多基于卷积神经网络或者Transformer的单模态模型实现,忽略了图像对应的丰富文本信息,模型能学习到的特征相对单一。为此,提出一种基于多提示和图文... 随着多模态学习的不断发展,图像检索领域也面临新的机遇和挑战。现有的服装检索模型大多基于卷积神经网络或者Transformer的单模态模型实现,忽略了图像对应的丰富文本信息,模型能学习到的特征相对单一。为此,提出一种基于多提示和图文对比学习的服装检索方法。引入图像文本多提示学习,引导多模态大模型FashionCLIP学习服装的多维高语义多模态特征,为提高模型的检索能力以及充分挖掘多模态模型的检索潜力,分两阶段优化模型。第一阶段冻结图像和文本编码器,通过图像文本交叉熵损失函数优化文本提示;第二阶段冻结文本提示和文本编码器,通过三元组损失、分类损失和图像文本交叉熵损失函数优化图像提示和图像编码器。在淘宝直播多模态视频商品检索数据集WAB上的域内检索和跨域检索实验结果表明:该方法在域内检索的均值平均精度(mAP)和Rank-1相对于传统方法至少提升6.1和3.5百分点,在跨域检索的mAP和Rank-1相对于传统方法至少提升8.4和6.4百分点,检索性能得到了显著提升,证明了图文对比学习在服装检索领域的潜力。 展开更多
关键词 服装检索 图文对比学习 预训练模型 跨模态检索 提示学习
在线阅读 下载PDF
ERASum:基于实体关系感知的摘要生成方法
13
作者 杨家全 苏适 +2 位作者 冯勇 和学豪 马九顺 《昆明理工大学学报(自然科学版)》 北大核心 2026年第1期102-111,共10页
为了提升大语言模型在文本摘要任务中的整体性能,特别是其对实体关系的理解与建模能力,以更有效地的方法生成覆盖关键信息的高质量摘要.为此,提出了一种基于实体关系感知的摘要生成方法ERASum,结合显式与隐式的实体关系信息,引导模型更... 为了提升大语言模型在文本摘要任务中的整体性能,特别是其对实体关系的理解与建模能力,以更有效地的方法生成覆盖关键信息的高质量摘要.为此,提出了一种基于实体关系感知的摘要生成方法ERASum,结合显式与隐式的实体关系信息,引导模型更深入地理解实体之间的语义联系.在元素感知的CNN/DailyMail与BBCXSum数据集上进行的实验显示,ERASum在ROUGE-L指标上分别比当前最优方法提升了1.52和1.84,显著优于现有模型.结果表明,该方法能够有效增强摘要中实体关系的表达能力,为复杂语义建模提供了新的思路. 展开更多
关键词 文本摘要 实体关系感知摘要生成方法(ERASum) 大语言模型 思维链提示 实体关系
原文传递
融合提示学习和注意力模块的预训练模型研究
14
作者 蒋安祥 张洁 《智能计算机与应用》 2026年第2期1-7,共7页
针对现有模型对文本预测精度不高、小样本训练结果较差等问题,提出一种改进的语言模型BPFP。首先,在模型嵌入层融合字向量信息和位置编码信息,更好地整合位置信息和语义信息。其次,减少了Transformer编码器的数量,提高了训练速度。最后... 针对现有模型对文本预测精度不高、小样本训练结果较差等问题,提出一种改进的语言模型BPFP。首先,在模型嵌入层融合字向量信息和位置编码信息,更好地整合位置信息和语义信息。其次,减少了Transformer编码器的数量,提高了训练速度。最后,融合了提示学习模块,提升总体精度的同时在小样本数据集上也取得了不错的效果。实验结果显示,在长文本数据集上,BPFP模型在遮挡语言模型和下一句预测准确率上分别较主流模型提升3.7%至6.9%,在短文本数据集上,准确率提升5.9%至12.3%,训练时间缩短了约三分之一。本文研发模型展现出了更强的鲁棒性。 展开更多
关键词 自然语言处理 文本预测 提示学习 预训练模型
在线阅读 下载PDF
文本分类中Prompt Learning方法研究综述 被引量:5
15
作者 顾勋勋 刘建平 +1 位作者 邢嘉璐 任海玉 《计算机工程与应用》 CSCD 北大核心 2024年第11期50-61,共12页
文本分类是自然语言处理中的一项基础任务,在情感分析、新闻分类等领域具有重要应用。相较于传统的机器学习和深度学习模型,提示学习可以在数据不足的情况下通过构建提示来进行文本分类。近年来,GPT-3的出现推动了提示学习方法的发展,... 文本分类是自然语言处理中的一项基础任务,在情感分析、新闻分类等领域具有重要应用。相较于传统的机器学习和深度学习模型,提示学习可以在数据不足的情况下通过构建提示来进行文本分类。近年来,GPT-3的出现推动了提示学习方法的发展,并且在文本分类领域取得了显著的进展。对以往的文本分类方法进行简要梳理,分析其存在的问题与不足;阐述了提示学习的发展进程,以及构建提示模板的方法,并对用于文本分类的提示学习方法研究及成果进行了介绍和总结。最后,对提示学习在文本分类领域的发展趋势和有待进一步研究的难点进行了总结和展望。 展开更多
关键词 提示学习 文本分类 情绪分析 新闻分类
在线阅读 下载PDF
基于prompt的文本可读性评估
16
作者 冯宇涛 强继朋 +2 位作者 李云 袁运浩 朱毅 《扬州大学学报(自然科学版)》 CAS 北大核心 2023年第3期56-60,共5页
为了提高预训练模型在文本可读性分类中的表现,提出基于预训练模型BERT(bidirectional encoder representations from transformers)和GPT2(generative pre-training 2)的prompt文本可读性分类方法,通过手工模板和映射器将文本可读性分... 为了提高预训练模型在文本可读性分类中的表现,提出基于预训练模型BERT(bidirectional encoder representations from transformers)和GPT2(generative pre-training 2)的prompt文本可读性分类方法,通过手工模板和映射器将文本可读性分类转换为与模型预训练任务一致的文本填空形式,以此提高预训练模型的分类性能.实验表明,prompt方法在实验数据集上与传统机器学习和有监督的神经网络相比具有更好的分类性能. 展开更多
关键词 文本可读性分类 预训练模型 手工模板
在线阅读 下载PDF
基于双重优化稳定扩散模型的文本生成图像方法 被引量:1
17
作者 黄金杰 刘彬 《模式识别与人工智能》 北大核心 2025年第4期359-373,共15页
稳定扩散模型(Stable Diffusion Model,SD)在面对包含多个对象的文本提示时,不能保证输入文本与其生成的图像完全对齐,而完全重新训练SD花费的资源是巨大的.因此,文中提出基于双重优化稳定扩散模型的文本生成图像方法(Text-to-Image Gen... 稳定扩散模型(Stable Diffusion Model,SD)在面对包含多个对象的文本提示时,不能保证输入文本与其生成的图像完全对齐,而完全重新训练SD花费的资源是巨大的.因此,文中提出基于双重优化稳定扩散模型的文本生成图像方法(Text-to-Image Generation via Dual Optimization Stable Diffusion Model,DualOpt-SD).首先,基于预训练的SD,将布局生成图像模型(Layout-to-Image Generation,L2I)通过生成框架引入文本生成图像模型(Text-to-Image Generation,T2I)中.然后,设计双重优化策略(Dual Optimization,DualOpt),优化推理过程中输出的噪声.DualOpt由两部分组成:一部分结合注意力分数,动态调整L2I和T2I学习的先验知识;另一部分针对不同去噪阶段的需求,对L2I和T2I进行差异化关注度处理.实验表明,当文本提示包含多个对象时,DualOpt-SD在保留SD强理解力的同时,可提高构图准确性,并且生成图像的综合能力较优,能够生成高真实性和对象位置合理的图像. 展开更多
关键词 稳定扩散模型 布局生成图像 文本生成图像 多目标文本提示
在线阅读 下载PDF
基于大语言模型和提示工程的中文医学文本实体关系抽取研究 被引量:4
18
作者 段宇锋 谢佳宏 《数据分析与知识发现》 北大核心 2025年第9期25-36,共12页
【目的】研究现有大语言模型抽取中文医学文本实体关系的性能差异,分析示例数量和关系类型数量对模型抽取效果的影响。【方法】基于提示工程方法,通过API调用9种主流大语言模型,从示例数量和关系类型数量两个角度修改提示模板,使用CMeIE... 【目的】研究现有大语言模型抽取中文医学文本实体关系的性能差异,分析示例数量和关系类型数量对模型抽取效果的影响。【方法】基于提示工程方法,通过API调用9种主流大语言模型,从示例数量和关系类型数量两个角度修改提示模板,使用CMeIE-V2数据集进行实验并比较抽取效果。【结果】(1)GLM-4-0520的综合抽取能力居于首位,在抽取“临床表现”“药物治疗”“病因”三种关系类型时F1值分别达到0.4422、0.3869、0.3874;(2)改变提示中的示例数量m,起初F1值随m的增加而上升,当m=8时达到最大值0.4742,m>8后F1值开始下降;(3)增加需要抽取的关系类型数量n后,F1值下降明显,n=2时F1值较n=1时下降0.1182,至n=10时F1值仅有0.2949。【局限】现有公开数据集较少,实验结果仅基于单个数据集得到;由于目前医学垂直领域的大语言模型难以通过API调用,本文使用的模型均来自通用领域。【结论】不同大模型的抽取效果差别较大;合适数量的示例能够提高模型抽取效果,但示例并非越多越好;大模型不擅长同时抽取多种关系类型。 展开更多
关键词 大语言模型 提示工程 实体关系抽取 中文医学文本
原文传递
类感知对比学习的弱监督语义分割
19
作者 白雪飞 许文杰 +1 位作者 王渊辉 王文剑 《电子学报》 北大核心 2025年第6期1741-1754,共14页
图像级弱监督语义分割方法通常采用类激活图定位目标物体,但现有方法生成类激活图时存在目标区域激活不足或背景区域误激活等问题.文章提出了一种类感知对比学习的弱监督语义分割框架,通过融合文本提示与图像类别信息,提升模型对目标区... 图像级弱监督语义分割方法通常采用类激活图定位目标物体,但现有方法生成类激活图时存在目标区域激活不足或背景区域误激活等问题.文章提出了一种类感知对比学习的弱监督语义分割框架,通过融合文本提示与图像类别信息,提升模型对目标区域的精确定位能力.首先,文章分析了不同文本提示模板对各类别类激活图的影响,在此基础上,为了获取更具适应性的类别表示,本文构建了一个上下文提示集,并设计上下文提示动态选择策略,根据图像目标区域与文本提示之间的相似性获取最合适的上下文提示.其次,采用图像-文本对比学习方法,以增强模型在处理图像与文本语义对齐任务中的表现,并设计了对比损失函数监督模型的训练过程.最后,提出一个类别特定的背景抑制模块,抑制与目标类别紧密相关的背景区域的误激活,从而生成更加完整和紧凑的类激活图,实现更精确的语义分割.文章在通用数据集PASCAL VOC 2012和MS COCO 2014中对提出的模型进行实验验证,mIoU值分别达到71.9%和43.9%,性能优于所有对比方法,有效提升了弱监督语义分割精度. 展开更多
关键词 弱监督语义分割 类激活图 类感知 对比学习 文本提示
在线阅读 下载PDF
基于提示学习的生成式文本摘要研究
20
作者 蒲秋梅 叶芬 +2 位作者 李辅德 韦洁瑶 赵丽娜 《东北师大学报(自然科学版)》 北大核心 2025年第1期63-73,共11页
针对现有生成式自动摘要方法常常依赖模型预先设定的规则或训练过程中的数据和方法的限制,未能完全发挥预训练模型对原文语义的学习潜力,导致生成的内容在连贯性和一致性等方面存在一定的不足问题,本文以大语言模型ChatGLM3-6b为基础,借... 针对现有生成式自动摘要方法常常依赖模型预先设定的规则或训练过程中的数据和方法的限制,未能完全发挥预训练模型对原文语义的学习潜力,导致生成的内容在连贯性和一致性等方面存在一定的不足问题,本文以大语言模型ChatGLM3-6b为基础,借助P-Tuning v2微调技术,将大模型的下游任务调整为文本摘要生成任务.这一方法的关键在于向数据集中添加提示信息,并设计了一套人工提示模板,协助模型在微调训练时能够更好地理解并生成摘要.实验结果表明,通过合理设计提示模板,本文模型在公开数据集上的ROUGE-1、ROUGE-2和ROUGE-L比最优的基线模型提升了2%~4%.此外,通过对相同实验数据集上的不同实验指标进行比较分析,发现针对不同长度的文本,采用不同的微调方法更为有效.P-tuning v2微调更适用于处理长文本的摘要生成任务,而LoRA微调则更适用于处理短文本.综上所述,加入提示词后生成的摘要效果明显改善,进一步证实了提示学习在文本摘要生成任务中的有效性和实用性. 展开更多
关键词 提示学习 文本摘要 大语言模型 ChatGLM
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部