期刊文献+
共找到11篇文章
< 1 >
每页显示 20 50 100
Evaluating quality of motion for unsupervised video object segmentation
1
作者 CHENG Guanjun SONG Huihui 《Optoelectronics Letters》 EI 2024年第6期379-384,共6页
Current mainstream unsupervised video object segmentation(UVOS) approaches typically incorporate optical flow as motion information to locate the primary objects in coherent video frames. However, they fuse appearance... Current mainstream unsupervised video object segmentation(UVOS) approaches typically incorporate optical flow as motion information to locate the primary objects in coherent video frames. However, they fuse appearance and motion information without evaluating the quality of the optical flow. When poor-quality optical flow is used for the interaction with the appearance information, it introduces significant noise and leads to a decline in overall performance. To alleviate this issue, we first employ a quality evaluation module(QEM) to evaluate the optical flow. Then, we select high-quality optical flow as motion cues to fuse with the appearance information, which can prevent poor-quality optical flow from diverting the network's attention. Moreover, we design an appearance-guided fusion module(AGFM) to better integrate appearance and motion information. Extensive experiments on several widely utilized datasets, including DAVIS-16, FBMS-59, and You Tube-Objects, demonstrate that the proposed method outperforms existing methods. 展开更多
关键词 Evaluating quality of motion for unsupervised video object segmentation
原文传递
运动提示引导自适应学习无监督视频目标分割
2
作者 韩志冬 胡升龙 +1 位作者 宋慧慧 张开华 《电子学报》 北大核心 2025年第7期2305-2323,共19页
现有无监督视频目标分割(Unsupervised Video Object Segmentation,UVOS)方法多采用像素级密集匹配策略,通过对齐融合多帧之间或单帧与光流之间的信息来提升模型性能.然而,在遮挡、相机抖动、运动模糊等挑战性场景中,光流估计误差易产... 现有无监督视频目标分割(Unsupervised Video Object Segmentation,UVOS)方法多采用像素级密集匹配策略,通过对齐融合多帧之间或单帧与光流之间的信息来提升模型性能.然而,在遮挡、相机抖动、运动模糊等挑战性场景中,光流估计误差易产生大量错误匹配,导致融合后的时空表征易过拟合运动噪声.为此,本文提出一种运动提示引导的自适应学习UVOS框架.通过设计一种无监督光流提示生成算法,将光流编码的密集运动信息转换为稀疏点和框提示,借助提示学习引导分割一切模型(Segment Anything Model,SAM)通过本文设计的两个轻量级适配器来自适应学习,从而获得更为鲁棒的时空表征,增强模型的抗噪能力.为获得有效的提示,设计了一种无监督运动提示生成算法.该算法基于光流特征计算一系列统计量,筛选出显著区域,再利用运动边缘信息去除伪显著区域的干扰,并设定自适应阈值进行过滤,生成提示显著运动目标所在区域的点和框坐标.为提升SAM在下游UVOS任务中的泛化性,提出一种自适应表征学习SAM模型.通过设计两个轻量级特征适配器,从SAM的通用知识库中自适应学习与下游UVOS任务相关的知识,以准确地粗定位目标.针对SAM基于纯Transformer架构在细节处理上的不足,基于卷积神经网络(Convolutional Neural Networks,CNN)架构设计了表观聚焦细化模块.由SAM得到的定位注意力图渐进式地引导细化过程,使模型的注意力从全局粗定位聚焦到局部细化,最终得到更加精确的分割掩码.本文方法在DAVIS16(DAVIS 2016)、FBMS(Financial and Business Management System)和YTOBJ(YouTube-OBJects)三个主流数据集上进行了充分验证.结果表明:本文方法在区域相似度指标上较当前先进方法分别提升了1.8%、1.6%和2.6%,充分表明了本文方法的有效性. 展开更多
关键词 无监督视频目标分割(uvos) 光流噪声 分割一切模型(SAM) 提示学习 自适应表征学习 运动外观解耦 多模态
在线阅读 下载PDF
聚焦式学习分割一切提示的无监督视频目标分割
3
作者 沈勇辉 卜东旭 +1 位作者 张胜裕 宋慧慧 《计算机工程与科学》 北大核心 2025年第2期298-307,共10页
无监督视频目标分割旨在测试阶段自动定位和分割视频帧中的主要目标。目前,大多数模型、方法依赖于从RGB图提取的外观线索和从光流图提取的运动线索来进行目标分割。然而,目标遮挡、快速运动或静止等问题会导致光流获取的信息缺失,仅依... 无监督视频目标分割旨在测试阶段自动定位和分割视频帧中的主要目标。目前,大多数模型、方法依赖于从RGB图提取的外观线索和从光流图提取的运动线索来进行目标分割。然而,目标遮挡、快速运动或静止等问题会导致光流获取的信息缺失,仅依靠外观分支获取的有限信息难以实现良好的分割效果。为了解决这一问题,提出了一种聚焦式学习网络模型FPLNet,该模型引入额外的双分支结构以捕捉主要目标的位置信息和轮廓信息,从而弥补光流信息的缺失。首先,所提出的模型利用分割一切模型SAM的骨干网络提取外观和运动信息,从而提高模型的泛化性。然后,将额外引入的粗粒度和细粒度的2个分割分支共同作为聚焦式学习网络的提示部分。在解码部分,RGB外观信息、光流运动信息、粗粒度特征和细粒度特征逐步融合,以此模仿人类视觉系统,实现聚焦式学习目标特征的过程。在3个标准数据集上进行了大量的测试,实验结果表明,与现有的模型相比,所提出的模型拥有更优异的性能。 展开更多
关键词 无监督视频目标分割 聚焦式学习 分割一切模型
在线阅读 下载PDF
基于离散余弦变换特征融合的无监督视频目标分割
4
作者 王玉琛 樊佳庆 宋慧慧 《计算机与数字工程》 2025年第2期395-402,共8页
无监督视频目标分割任务旨在对没有人工提供第一帧的目标分割真值掩膜的情况下,对视频中的前景对象进行定位和分割。现有的方法主要关注提高分割精度上,而忽略了内存和计算成本。通常,现有的方法只在空间域内根据重要性对特征进行增强,... 无监督视频目标分割任务旨在对没有人工提供第一帧的目标分割真值掩膜的情况下,对视频中的前景对象进行定位和分割。现有的方法主要关注提高分割精度上,而忽略了内存和计算成本。通常,现有的方法只在空间域内根据重要性对特征进行增强,忽略了特征在频域中的差异性。此外,现有方法也没有充分利用全局语义信息来引导视频目标的分割。为解决上述问题,论文提出一种基于离散余弦变换特征融合的轻量级无监督视频目标分割网络。首先,使用轻量的骨干网络同时提取外观与运动特征;接着,设计了离散余弦变换特征融合模块,用于对外观与运动特征的融合与增强;然后,利用大核卷积全局语义引导模块对大核卷积分解,在降低计算量的同时,保持提取全局语义信息的能力;最后,在全局语义信息的引导下逐级聚合频域增强后的多级特征,最终得到精确的分割结果。通过上述设计,论文方法最终只有14.7 M参数量。论文在DAVIS2016、FBMS和DAVSOD数据集上进行了大量的实验评测,实验结果充分表明,论文方法在J&F、MAE和Fm等多个指标上均取得了良好的性能;同时,保持了高效的推理速度。 展开更多
关键词 无监督视频目标分割 离散余弦变换 注意力机制 频域分析
在线阅读 下载PDF
一种基于交替凸优化的视频对象分割算法 被引量:2
5
作者 孙婷 《计算机工程》 CAS CSCD 北大核心 2019年第3期242-249,共8页
现有视频对象分割方案多数存在应用场景受限、运动背景过分割等问题,为此,提出一种可从视频序列中自动检测重要对象的无监督视频对象分割算法。从前景和背景概率分布的角度引入马尔可夫能量、时空能量和对抗能量。将视频对象分割问题建... 现有视频对象分割方案多数存在应用场景受限、运动背景过分割等问题,为此,提出一种可从视频序列中自动检测重要对象的无监督视频对象分割算法。从前景和背景概率分布的角度引入马尔可夫能量、时空能量和对抗能量。将视频对象分割问题建模为基于3种混合能量最小化的非凸优化问题,利用基于交替凸优化的方法将其分解为2个二次规划问题。采用前向-反向传递策略,以充分利用时域相关性从而提高对象分割的可靠性。结合多种视频数据集进行仿真,结果表明,与其他最新的视频对象分割算法相比,该算法的分割性能有明显提高。 展开更多
关键词 视频对象分割 无监督算法 能量最小化 交替凸优化 二次规划问题 前向-反向策略
在线阅读 下载PDF
深度学习在视频对象分割中的应用与展望 被引量:13
6
作者 陈加 陈亚松 +3 位作者 李伟浩 田元 刘智 何英 《计算机学报》 EI CSCD 北大核心 2021年第3期609-631,共23页
视频对象分割是指在给定的一段视频序列的各帧图像中,找出属于特定前景对象的所有像素点位置区域.随着硬件平台计算能力的提升,深度学习受到了越来越多的关注,在视频对象分割领域也取得了一定的进展.本文首先介绍了视频对象分割的主要任... 视频对象分割是指在给定的一段视频序列的各帧图像中,找出属于特定前景对象的所有像素点位置区域.随着硬件平台计算能力的提升,深度学习受到了越来越多的关注,在视频对象分割领域也取得了一定的进展.本文首先介绍了视频对象分割的主要任务,并总结了该任务所面临的挑战.其次,对开放的视频对象分割常用数据集进行了简要概述,并介绍了通用的性能评估标准.接着,综述了视频对象分割的研究现状,详细地分析了当前的各种方法,并将它们划分为三大类:半监督的方法,即给出视频第一帧图像中感兴趣对象的详细人工真值标注,分割出视频剩余图像中的感兴趣对象;无监督的方法,即不给任何人工标注信息,自动识别并分割出视频中的前景对象;交互式的方法,即在分割过程中,通过人工交互式的参与,结合粗略的人工标注先验信息,进行视频对象分割.第三类方法的条件相当于前两者的折中:相对于第一类方法,它虽然需要人工的参与,但只需要少量的标注工作量;相对于第二类方法,它给视频序列中某些帧的图像适当地添加了一些人工标注信息,从而更具针对性.最后,对深度学习在视频对象分割任务中的应用,进行了总结和展望. 展开更多
关键词 视频对象分割 深度学习 半监督方法 无监督方法 交互式方法
在线阅读 下载PDF
基于运动引导的高效无监督视频目标分割网络 被引量:3
7
作者 赵子成 张开华 +1 位作者 樊佳庆 刘青山 《自动化学报》 EI CAS CSCD 北大核心 2023年第4期872-880,共9页
大量基于深度学习的无监督视频目标分割(Unsupervised video object segmentation,UVOS)算法存在模型参数量与计算量较大的问题,这显著限制了算法在实际中的应用.提出了基于运动引导的视频目标分割网络,在大幅降低模型参数量与计算量的... 大量基于深度学习的无监督视频目标分割(Unsupervised video object segmentation,UVOS)算法存在模型参数量与计算量较大的问题,这显著限制了算法在实际中的应用.提出了基于运动引导的视频目标分割网络,在大幅降低模型参数量与计算量的同时,提升视频目标分割性能.整个模型由双流网络、运动引导模块、多尺度渐进融合模块三部分组成.具体地,首先,RGB图像与光流估计输入双流网络提取物体外观特征与运动特征;然后,运动引导模块通过局部注意力提取运动特征中的语义信息,用于引导外观特征学习丰富的语义信息;最后,多尺度渐进融合模块获取双流网络的各个阶段输出的特征,将深层特征渐进地融入浅层特征,最终提升边缘分割效果.在3个标准数据集上进行了大量评测,实验结果表明了该方法的优越性能. 展开更多
关键词 无监督视频目标分割 运动引导 局部注意力 互注意力
在线阅读 下载PDF
深度信号引导学习混合变换器的高性能无监督视频目标分割 被引量:2
8
作者 苏天康 宋慧慧 +1 位作者 樊佳庆 张开华 《电子学报》 EI CAS CSCD 北大核心 2023年第5期1388-1395,共8页
现存的无监督视频目标分割方法通常使用光流作为运动线索来提升模型性能.然而,光流的估计常存在误差,这将导致双流网络易对噪声过拟合.为此,本文提出一种基于混合变换器的无监督视频目标分割算法,通过引入深度信号引导变换器高效融合不... 现存的无监督视频目标分割方法通常使用光流作为运动线索来提升模型性能.然而,光流的估计常存在误差,这将导致双流网络易对噪声过拟合.为此,本文提出一种基于混合变换器的无监督视频目标分割算法,通过引入深度信号引导变换器高效融合不同模态数据,以学习更加鲁棒的特征表达,从而减轻模型对噪声的过拟合.首先,设计一个新颖的混合注意力模块来获得全局感受野并对不同模态的特征进行充分交互,以增强特征的全局语义信息来提升模型的抗干扰能力.接着,为了进一步感知精细化的目标边缘,设计了一个局部-非局部语义增强模块,将局部语义的归纳偏置引入补充学习非局部语义特征,在提升模型抗干扰力的同时突出更精细化的目标区域.最后,增强后的特征输入变换器的解码器,预测得到高质量的分割结果 .与最先进的方法相比,本文所提算法在四个标准数据集上都获得了领先的性能,充分表明了本文所提方法的有效性. 展开更多
关键词 无监督视频目标分割 混合变换器 混合注意力 多模态 深度估计 鲁棒特征
在线阅读 下载PDF
基于并行多方向注意力的无监督视频目标分割 被引量:1
9
作者 樊佳庆 苏天康 +1 位作者 张开华 刘青山 《计算机学报》 EI CAS CSCD 北大核心 2022年第11期2337-2347,共11页
时空特征传播对准确的无监督视频目标分割任务至关重要.但是,由于现实中视频的复杂性,导致时空特征学习与传播变得十分具有挑战性.在本文中,提出了两个新颖的模块分别用于增强视频中目标的空间和时间表示.具体来说,首先,针对当前帧,在... 时空特征传播对准确的无监督视频目标分割任务至关重要.但是,由于现实中视频的复杂性,导致时空特征学习与传播变得十分具有挑战性.在本文中,提出了两个新颖的模块分别用于增强视频中目标的空间和时间表示.具体来说,首先,针对当前帧,在空间上提出一个新颖的多方向注意力模块,旨在沿着水平、垂直与通道方向上分别提取注意力图.同时,设计了一个并行时序模块用于整合当前帧和之前帧的信息.该模块并行地计算出连续帧之间的二阶相似度,并且根据该相似度图重新对当前帧特征进行加权与增强.此外,该相似度图还直接生成一个有效的掩膜,用于进一步增广当前帧中目标的特征表示.接着,将上述空间和时间特征进行融合以获得最终增广的时空特征表示,并将其输入解码器来预测当前帧中待分割目标的掩膜.在三个主流无监督视频目标分割数据集上的大量实验结果表明,本文提出的方法与当前最新方法相比取得了领先的性能.相关代码将公布在https://github.com/su1517007879/MP-VOS. 展开更多
关键词 无监督视频目标分割 多方向注意力 时空调制 并行注意力
在线阅读 下载PDF
结合全卷积网络的无监督视频目标分割 被引量:1
10
作者 霍达 马诗源 《计算机与现代化》 2019年第6期116-120,共5页
对视频中的目标进行像素级分割是计算机视觉领域的研究热点,完全没有用户标注的无监督视频分割对分割算法提出了更高的要求。近几年在分割中常使用基于帧间运动信息进行建模的方法,即用光流等运动信息预测目标轮廓,再结合颜色等特征建... 对视频中的目标进行像素级分割是计算机视觉领域的研究热点,完全没有用户标注的无监督视频分割对分割算法提出了更高的要求。近几年在分割中常使用基于帧间运动信息进行建模的方法,即用光流等运动信息预测目标轮廓,再结合颜色等特征建立模型进行分割。针对这些方法产生的前景背景混淆以及边缘粗糙等问题,本文提出结合全卷积网络的视频目标分割方法。首先通过全卷积网络预测视频序列中显著目标的轮廓,结合光流获得的运动显著性标签进行修正,然后建立时间-空间图模型,运用图割的方法获得最终的预测标签。在SegTrack v2以及DAVIS这2个通用数据集上进行评估,结果表明本文方法较基于帧间运动信息的方法在分割效果上有明显的提高。 展开更多
关键词 视频分割 目标分割 深度特征 无监督 全卷积网络
在线阅读 下载PDF
基于光流信息融合的无监督视频目标分割网络
11
作者 文彪 张惊雷 《天津理工大学学报》 2024年第6期94-101,共8页
随着机器学习特别是深度学习理论和算法的不断发展和视频数据的大量积累,采用无标签视频信息的无监督学习算法取得了长足进步。提出了一种融合光流信息的双流无监督学习视频目标分割网络。首先,将视频序列中的随机帧和与之对应的由光流... 随着机器学习特别是深度学习理论和算法的不断发展和视频数据的大量积累,采用无标签视频信息的无监督学习算法取得了长足进步。提出了一种融合光流信息的双流无监督学习视频目标分割网络。首先,将视频序列中的随机帧和与之对应的由光流网络生成的光流图分别输入到残差神经(residual networks,ResNet)主干网络,形成帧特征图和对应的帧间光流特征图。其次,为克服共同移动的背景信息对分割精度的影响,设计了目标位置信息融合模块(position information fusion,PIF),将输入视频帧和光流进行位置信息融合,在得到主要目标位置的同时,降低了背景噪声信号对分割的影响。最后,设计空间通道上下文信息融合注意力机制模块(spatial channel context information fusion,SCCF),将帧特征和光流特征的上下文信息与经典的空间通道注意力机制进行了融合。在DAVIS-16数据集上的实验表明,文中网络的平均区域相似性指标可达89.6,平均边界精度指标可达87.0,两项指标均达到该领域的最高水平。 展开更多
关键词 无监督学习 光流 视频目标分割 目标位置信息交互模块 空间通道上下文信息融合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部