期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于归一化流的多模态多尺度工业场景缺陷检测 被引量:2
1
作者 曲海成 林俊杰 《中国图象图形学报》 北大核心 2025年第2期451-466,共16页
目的工业缺陷检测是现代工业质量控制中至关重要的一环,针对工业多模态缺陷检测场景下,捕捉不同形状大小、在RGB图像上感知度低的缺陷,以及减少单模态原始特征空间内存在的噪声对多模态信息交互的干扰的挑战,提出了一种基于归一化流的... 目的工业缺陷检测是现代工业质量控制中至关重要的一环,针对工业多模态缺陷检测场景下,捕捉不同形状大小、在RGB图像上感知度低的缺陷,以及减少单模态原始特征空间内存在的噪声对多模态信息交互的干扰的挑战,提出了一种基于归一化流的多模态多尺度缺陷检测方法。方法首先,使用Vision Transformer和Point Transformer对RGB图像和3D点云两个模态的信息提取第1、3、11块的特征构建特征金字塔,保留低层次特征的空间信息助力缺陷定位任务,并提高模型对不同形状大小缺陷的鲁棒性;其次,为了简化多模态交互,使用过点特征对齐算法将3D点云特征对齐至RGB图像所在平面,通过构建对比学习矩阵的方式实现无监督多模态特征融合,促进不同模态之间信息的交互;此外,通过设计代理任务的方式将信息瓶颈机制扩展至无监督,并在尽可能保留原始信息的同时,减少噪声干扰得到更充分有力的多模态表示;最后,使用多尺度归一化流结构捕捉不同尺度的特征信息,实现不同尺度特征之间的交互。结果本文方法在MVTec-3D AD数据集上进行性能评估,实验结果显示Detection AUCROC(area under the curve of the receiveroperating characteristic)指标达到93.3%,SegmentationAUPRO(area under the precision-recall overlap)指标达到96.1%,Segmentation AUCROC指标达到98.8%,优于大多数现有的多模态缺陷检测方法。结论本文方法对于不同形状大小、在RGB图像上感知度低的缺陷有较好的检测效果,不但减少了原始特征空间内噪声对多模态表示的影响,并且对不同形状大小的缺陷具有一定的泛化能力,较好地满足了现代工业对于缺陷检测的要求。 展开更多
关键词 多模态多尺度工业场景 缺陷检测 无监督特征融合(UFF) 代理任务 归一化流
原文传递
基于主题提示学习的零样本立场检测方法
2
作者 陈子潇 梁斌 徐睿峰 《中文信息学报》 北大核心 2025年第1期112-120,共9页
零样本立场检测目的是针对未知目标数据进行立场极性预测。一般而言,文本的立场表达是与所讨论的目标主题紧密联系的。针对未知目标的立场检测,该文将立场表达划分为两种类型:一类在说话者面向不同的主题和讨论目标时表达相同的立场态度... 零样本立场检测目的是针对未知目标数据进行立场极性预测。一般而言,文本的立场表达是与所讨论的目标主题紧密联系的。针对未知目标的立场检测,该文将立场表达划分为两种类型:一类在说话者面向不同的主题和讨论目标时表达相同的立场态度,称为目标无关的表达;另一类在说话者面向特定主题和讨论目标时才表达相应的立场态度,该文称为目标依赖的表达。对这两种表达进行区分,有效学习到目标无关的表达方式并忽略目标依赖的表达方式,有望强化模型的可迁移能力,使其更加适应零样本立场检测任务。据此,该文提出了一种基于主题提示学习的零样本立场检测方法。具体而言,受自监督学习的启发,该文为零样本立场检测设置了一个代理任务框架。其中,代理任务通过掩盖上下文中的目标主题词生成辅助样本,并基于提示学习分别预测原样本和辅助样本的立场表达,随后判断原样本和辅助样本的立场表达是否一致,从而在无须人工标注的情况下判断样本的立场表达是否依赖于目标的代理标签。然后,将此代理标签提供给立场检测模型,对应学习可迁移的立场检测特征。在两个基准数据集上的大量实验表明,该文提出的方法在零样本立场检测任务中相比基线模型取得了更优的性能。 展开更多
关键词 零样本立场检测 提示学习 代理任务
在线阅读 下载PDF
文本意义的生成因素与文学批评的任务
3
作者 白寅 王晓东 张萌 《湖南第一师范学报》 2006年第3期15-18,共4页
梳理诠释学意义上的对文本的理解,考察文本意义生成的基本因素,是界定文学批评任务的首要环节。文本的意义可分为三个层面:第一层面来源于前文本因素的作用,是读者对文本的价值评估和对作者意图的揣摩、意会;第二层面来源于文本同步因... 梳理诠释学意义上的对文本的理解,考察文本意义生成的基本因素,是界定文学批评任务的首要环节。文本的意义可分为三个层面:第一层面来源于前文本因素的作用,是读者对文本的价值评估和对作者意图的揣摩、意会;第二层面来源于文本同步因素与后文本因素的综合作用,是读者对文本的时代背景的理解与认知,对自己的审美感受与知识结构的联想、调整甚至于改变,以及向他人所作的解释性的描述;第三层面来源于后文本因素,是读者在一定的提示和启发之下产生的创造性联想。由此,批评的任务也可界定在考辨性批评、诠释性批评、创造性批评三个基本层面上。 展开更多
关键词 文本意义 诠释学 前文本因素 文本同步因素 后文本因素 批评任务
在线阅读 下载PDF
面向RGB-D语义分割的多模态任意旋转自监督学习
4
作者 李鸿宇 张宜飞 杨东宝 《计算机系统应用》 2024年第1期219-230,共12页
基于RGB-D数据的自监督学习受到广泛关注,然而大多数方法侧重全局级别的表示学习,会丢失对识别对象至关重要的局部细节信息.由于RGB-D数据中图像和深度具有几何一致性,因此这可以作为线索来指导RGB-D数据的自监督特征表示学习.在本文中... 基于RGB-D数据的自监督学习受到广泛关注,然而大多数方法侧重全局级别的表示学习,会丢失对识别对象至关重要的局部细节信息.由于RGB-D数据中图像和深度具有几何一致性,因此这可以作为线索来指导RGB-D数据的自监督特征表示学习.在本文中,我们提出了ArbRot,它可以无限制地旋转角度并为代理任务生成多个伪标签用于自监督学习,而且还建立了全局和局部之间的上下文联系.本文所提出的ArbRot可以与其他对比学习方法联合训练,构建多模态多代理任务自监督学习框架,以增强图像和深度视图的特征表示一致性,从而为RGB-D语义分割任务提供有效的初始化.在SUN RGB-D和NYU Depth Dataset V2数据集上的实验结果表明,多模态任意旋转自监督学习得到的特征表示质量均高于基线模型.开源代码:https://github.com/Physu/ArbRot. 展开更多
关键词 自监督学习 代理任务 对比学习 RGB-D 多模态
在线阅读 下载PDF
基于播放速率预测的自监督视频表征算法研究
5
作者 靳巾 张育嘉 +1 位作者 徐叙远 刘孟洋 《网络新媒体技术》 2023年第2期11-18,共8页
时空特征学习对于视频无监督表征至关重要。基于前置任务的视频自监督表征方法被证明是有效的方式之一。其中,视频播放率预测的前置任务能够以无监督的方式学习时序特征,近年来得到广泛的讨论。然而,播放速率预测任务只探讨了单个样本... 时空特征学习对于视频无监督表征至关重要。基于前置任务的视频自监督表征方法被证明是有效的方式之一。其中,视频播放率预测的前置任务能够以无监督的方式学习时序特征,近年来得到广泛的讨论。然而,播放速率预测任务只探讨了单个样本的自监督标签,忽略了不同目标的运动频率差别;播放率预测任务的损失函数将所有标签的权重视为均等,而忽略了不同预测标签间与真值间的差距;传统的播放速率预测任务只使用单层分类层用于播放速率预测,影响视频表征的整体性能。针对上述3个问题,提出了一种改进的播放速率前置任务。该方法在训练时创新性地使用对照样本,并使用EMD距离优化不同预测样本和真值间的损失函数,同时使用更深的神经网络预测层,缓解预测任务对视频表征的影响。本文所提出的方法在公开数据集UCF-101和HMDB-51进行仿真实验,比较了所提出方法与传统方法的性能增益。实验表明,改进的播放速度前置任务有较好的视频表征效果。 展开更多
关键词 视频表征 自监督学习 前置任务 神经网络 动作识别
在线阅读 下载PDF
Graph contrastive learning with node-level accurate difference 被引量:2
6
作者 Pengfei Jiao Kaiyan Yu +3 位作者 Qing Bao Ying Jiang Xuan Guo Zhidong Zhao 《Fundamental Research》 2025年第2期818-829,共12页
Graph contrastive learning(GCL)has attracted extensive research interest due to its powerful ability to capture latent structural and semantic information of graphs in a self-supervised manner.Existing GCL methods com... Graph contrastive learning(GCL)has attracted extensive research interest due to its powerful ability to capture latent structural and semantic information of graphs in a self-supervised manner.Existing GCL methods commonly adopt predefined graph augmentations to generate two contrastive views.Subsequently,they design a contrastive pretext task between these views with the goal of maximizing their agreement.These methods as-sume the augmented graph can fully preserve the semantics of the original.However,typical data augmentation strategies in GCL,such as random edge dropping,may alter the properties of the original graph.As a result,previous GCL methods overlooked graph differences,potentially leading to difficulty distinguishing between graphs that are structurally similar but semantically different.Therefore,we argue that it is necessary to design a method that can quantify the dissimilarity between the original and augmented graphs to more accurately capture the relationships between samples.In this work,we propose a novel graph contrastive learning framework,named Accurate Difference-based Node-Level Graph Contrastive Learning(DNGCL),which helps the model distinguish similar graphs with slight differences by learning node-level differences between graphs.Specifically,we train the model to distinguish between original and augmented nodes via a node discriminator and employ cosine dissimilarity to accurately measure the difference between each node.Furthermore,we employ multiple types of data augmentation commonly used in current GCL methods on the original graph,aiming to learn the differences between nodes under different augmentation strategies and help the model learn richer local information.We conduct extensive experiments on six benchmark datasets and the results show that our DNGCL outperforms most state-of-the-art baselines,which strongly validates the effectiveness of our model. 展开更多
关键词 Graph neural network Graph contrastive learning Accurate difference measure Node representation learning pretext task design
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部