期刊文献+
共找到140篇文章
< 1 2 7 >
每页显示 20 50 100
基于改进FeatDepth的足球运动场景无监督单目图像深度预测
1
作者 傅荟璇 徐权文 王宇超 《实验技术与管理》 CAS 北大核心 2024年第10期74-84,共11页
为了在降低成本的同时提高图像深度信息预测的精确度,并将深度估计应用于足球运动场景,提出一种基于改进FeatDepth的足球运动场景无监督单目图像深度预测方法。首先,对原FeatDepth引入注意力机制,使模型更加关注有效的特征信息;其次,将F... 为了在降低成本的同时提高图像深度信息预测的精确度,并将深度估计应用于足球运动场景,提出一种基于改进FeatDepth的足球运动场景无监督单目图像深度预测方法。首先,对原FeatDepth引入注意力机制,使模型更加关注有效的特征信息;其次,将FeatDepth中的PoseNet网络和DepthNet网络分别嵌入GAM全局注意力机制模块,为网络添加额外的上下文信息,在基本不增加计算成本的情况下提升FeatDepth模型深度预测性能;再次,为在低纹理区域和细节上获得更好的深度预测效果,由单视图重构损失与交叉视图重构损失组合而成最终的损失函数。选取KITTI数据集中Person场景较多的部分进行数据集制作并进行仿真实验,结果表明,改进后的FeatDepth模型不仅在精确度上有所提升,且在低纹理区域及细节处拥有更好的深度预测效果。最后,对比模型在足球场景下的推理效果后得出,改进后的模型在低纹理区域(足球、球门等)及细节处(肢体等)有更好的深度预测效果,实现了将基于无监督的单目深度估计模型应用于足球运动场景的目的。 展开更多
关键词 足球运动场景 无监督单目深度估计 Featdepth 注意力机制 GAM 图像重构
在线阅读 下载PDF
光照变换和深度不变性约束低光照深度估计
2
作者 曹晓倩 王旸 刘伟峰 《计算机工程与应用》 北大核心 2025年第17期272-281,共10页
针对现有单目深度估计算法在夜间辅助驾驶等应用场景中性能显著下降的问题,提出基于光照变换和深度不变性约束的低光照深度估计算法。核心思想是:通过良好光照图像光照分量的多样性低光照变换和同一场景的深度不变性约束,促使深度估计... 针对现有单目深度估计算法在夜间辅助驾驶等应用场景中性能显著下降的问题,提出基于光照变换和深度不变性约束的低光照深度估计算法。核心思想是:通过良好光照图像光照分量的多样性低光照变换和同一场景的深度不变性约束,促使深度估计网络提取与光照无关的深层深度线索特征,提升网络在低光照场景中的泛化能力。具体为:以现有高性能深度估计网络为基础,获取良好光照条件下成对的“RGB-Depth”数据集;针对良好光照条件下所有RGB图像,以低光照图像为参考,逐一进行光照分量估计和变换,生成与原RGB图像同场景的系列低光照图像;利用生成低光照图像与原RGB图像的深度不变性约束,进行深度估计网络微调。实验结果表明,提出的算法在各个评价指标上均优于原深度估计算法Lite-Mono以及当前先进的低光照场景深度估计算法STEPS、ADDS等;另外,其容易嵌入其他经典深度估计网络提升原算法的光照域适应能力。 展开更多
关键词 单目深度估计 低光照场景 光照变换 深度不变性约束
在线阅读 下载PDF
三维高斯泼溅技术在场景重建中的研究现状与挑战 被引量:4
3
作者 朱东林 陈淼 +2 位作者 毛宇岩 张峻豪 王忠立 《集成技术》 2025年第4期1-20,共20页
三维场景重建是自动驾驶和机器人等领域的重要研究课题,在导航建图、环境交互、虚拟和增强现实等任务中应用广泛。从场景表示方式和核心建模技术角度来看,目前基于深度学习的三维场景重建方法主要分为基于代价体积的深度估计方法、基于... 三维场景重建是自动驾驶和机器人等领域的重要研究课题,在导航建图、环境交互、虚拟和增强现实等任务中应用广泛。从场景表示方式和核心建模技术角度来看,目前基于深度学习的三维场景重建方法主要分为基于代价体积的深度估计方法、基于截断有符号距离函数的体素方法、基于注意力架构的大规模前馈方法、基于多层感知机的神经辐射场方法和三维高斯泼溅(3D Gaussian splatting,3DGS)方法等5种。每种方法都有其独特的优势和局限,而新兴的3DGS方法通过高斯函数显式地表示场景,并通过高效的光栅化操作实现场景的快速渲染和新视角合成。与神经辐射场方法采用多层感知机网络表示场景信息的建模方式不同,3DGS的最大优势是能在保证高效渲染的同时模型还具有可解释性和可编辑性,这为准确重建三维场景铺平了道路。然而,3DGS在场景重建任务中的应用仍面临许多困难和挑战。基于此,本文首先介绍了3DGS的基本概念,并与上述4种方法进行特点比较;其次,本文系统性调研了现有3DGS重建算法,总结了该方法要解决的关键问题,并结合典型实例,综述了相关核心难题的研究现状;最后,本文展望了未来更有可能探索的新研究方向。 展开更多
关键词 深度估计 三维高斯泼溅 神经辐射场 三维场景重建
在线阅读 下载PDF
复杂曲面物体表面力学检测与成像方法研究
4
作者 梁伟豪 张凯邦 +3 位作者 刘紫琛 黄敏 陈智明 罗坚义 《材料研究与应用》 2025年第4期778-788,共11页
力学检测在评估材料、结构或系统力学性能方面至关重要。然而,传统力学检测仪器多局限于单点测量或二维平面扫描,难以对复杂曲面物体的表面进行高精度、全覆盖的力学特性分析。因此,提出了一种基于六轴机械臂操作结合深度视觉技术的复... 力学检测在评估材料、结构或系统力学性能方面至关重要。然而,传统力学检测仪器多局限于单点测量或二维平面扫描,难以对复杂曲面物体的表面进行高精度、全覆盖的力学特性分析。因此,提出了一种基于六轴机械臂操作结合深度视觉技术的复杂曲面表面力学扫描与三维成像方法。该法借助机械臂带动深度相机从不同角度拍摄图像,运用Open3D开源库完成三维场景重建,获取被测物外轮廓的点云信息,随之对重建点云数据进行法线估计,将其转换为机械臂末端位姿控制参数,并利用贪婪算法规划扫描路径,从而使机械臂按照规划的扫描路径驱动末端带有力传感器的探针对各测量点进行力学按压检测,从而获取实时采集探针位置与压力数据。在按压的过程中,利用导纳力控的方式控制按压速度与力度间的关系,使得探针在按压到额定阈值时速度恰好降低为零,在高效率检测的同时保证测量数据的精确度。单次按压检测的所需时间约为6.4 s、位置精度为0.1 mm、力学精度为30 mN、最大检测范围为1.3 m的半球、最大按压力度为10 N。在对所有测量点完成检测后,通过将相同压力下的位置数据三维成像,以压缩深度为标量场对模型表面进行伪彩色映射,直观展现不同区域的软硬差异。实验验证,该方法可成功实现对人体大腿硅胶模型等复杂曲面的高分辨率力学成像,色彩梯度清晰反映了软组织仿生材料在不同压力下的压缩深度分布特征。复杂曲面物体的表面力学检测与成像方法,为生物医学工程等领域提供了量化依据。 展开更多
关键词 复杂曲面物体 力学检测 力学成像 导纳力控 深度视觉 场景重建 机械臂控制 伪彩色映射成像
在线阅读 下载PDF
复杂场景下自适应注意力机制融合实时语义分割
5
作者 陈丹 刘乐 +2 位作者 王晨昊 白熙茹 王子晨 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第8期3334-3342,共9页
实现高准确度和低计算负担是卷积神经网络(CNN)实时语义分割面临的严峻挑战。针对复杂城市街道场景目标种类众多、光照变化大等特点,该文设计了一种高效的实时语义分割自适应注意力机制融合网络(AAFNet)分别提取图像空间细节和语义信息... 实现高准确度和低计算负担是卷积神经网络(CNN)实时语义分割面临的严峻挑战。针对复杂城市街道场景目标种类众多、光照变化大等特点,该文设计了一种高效的实时语义分割自适应注意力机制融合网络(AAFNet)分别提取图像空间细节和语义信息,再经过特征融合网络(FFN)获得准确语义图像。AAFNet采用扩展的深度可分离卷积(DDW)可增大语义特征提取感受野,提出自适应平均池化(Avp)和自适应最大池化(Amp)构成自适应注意力机制融合模块(AAFM),可细化目标边缘分割效果并降低小目标的漏分率。最后在复杂城市街道场景Cityscapes和CamVid数据集上分别进行了语义分割实验,所设计的AAFNet以32帧/s(Cityscapes)和52帧/s(CamVid)的推理速度获得73.0%和69.8%的平均分割精度(mIoU),且与扩展的空间注意力网络(DSANet)、多尺度上下文融合网络(MSCFNet)以及轻量级双边非对称残差网络(LBARNet)相比,AAFNet平均分割精度最高。 展开更多
关键词 卷积神经网络 复杂城市街道场景 扩展的深度可分离卷积 自适应注意力机制融合 分割精度
在线阅读 下载PDF
基于多引导结构感知网络的深度补全 被引量:1
6
作者 孙虎 金宇强 +1 位作者 张文安 付明磊 《控制与决策》 EI CSCD 北大核心 2024年第2期401-410,共10页
针对三维场景深度信息观测稀疏问题,提出一种融合彩色图像的多引导结构感知网络模型以补全稀疏深度.首先,利用三维平面法向量与场景梯度信息之间的映射关系,设计一种两分支主干网络框架,结合图像特征和几何特征进行深度预测,以充分提取... 针对三维场景深度信息观测稀疏问题,提出一种融合彩色图像的多引导结构感知网络模型以补全稀疏深度.首先,利用三维平面法向量与场景梯度信息之间的映射关系,设计一种两分支主干网络框架,结合图像特征和几何特征进行深度预测,以充分提取空间位置信息的特征表示;然后,考虑到大范围场景下不同物体的结构差异性,基于网络通道注意力机制设计一种自适应感受野的结构感知模块,以对不同尺度的信息进行表征;最后,在网络采样的过程中,以不同尺寸图像为指导对预测子深度图进行滤波并修复物体的边缘细节.公开数据集上的实验结果表明,所设计的深度补全算法可以获得准确的稠密深度,同时通过两个下游感知任务进行深入评估,表明利用所提出方法能够有效提升其他感知任务的效果. 展开更多
关键词 稀疏场景 深度补全 结构感知 多传感器融合 图像引导滤波 自适应感受野
原文传递
基于深度学习的自监督单目动态场景深度估计综述 被引量:2
7
作者 程彬彬 于英 +2 位作者 张磊 王自全 江志鹏 《遥感学报》 EI CSCD 北大核心 2024年第9期2170-2186,共17页
现实世界中不存在完全静态的场景,动态场景下的单目深度估计方法是指从单幅影像中同时获取动态前景和静态背景的深度信息,与传统双目估计方法相比具有运用灵活、成本较低等优势,有着极强的研究意义和广阔的发展前景,在三维重建、自动驾... 现实世界中不存在完全静态的场景,动态场景下的单目深度估计方法是指从单幅影像中同时获取动态前景和静态背景的深度信息,与传统双目估计方法相比具有运用灵活、成本较低等优势,有着极强的研究意义和广阔的发展前景,在三维重建、自动驾驶等下游任务中起着关键作用。深度学习技术迅速发展,自监督学习不使用真实数据标签,吸引众多学者的研究热情。国内外众多学者为了处理场景中的动态物体相继提出一系列自监督单目深度估计算法,为广大相关领域的研究者奠定了研究基础,但目前尚未有对上述方法进行综合分析的研究。针对这一问题,本文对基于深度学习的自监督单目动态场景深度估计技术进展情况进行了系统性梳理与总结,首先归纳了基于深度学习的自监督单目深度估计的基本模型,分析了动态物体是如何对场景深度估计产生的影响;其次,介绍了单目深度估计研究的常用数据集以及评价指标,对经典动态场景下单目深度估计模型进行了性能对比分析;然后,依据对动态物体的处理方式不同,分别从动态场景鲁棒深度估计和动态物体跟踪与深度估计两个研究方向,进行了总结与定量分析;最后对动态场景单目深度估计的未来发展方向进行了展望。 展开更多
关键词 遥感 动态场景 单目深度估计 自监督学习 深度学习 三维重建
原文传递
融合场景深度估计和视觉传达的复杂光照图像虚拟重建 被引量:1
8
作者 柴萍 柴金娣 《激光杂志》 CAS 北大核心 2024年第2期129-134,共6页
复杂光照图像虚拟中受到光照强度不均衡性影响导致重建效果不好,为了提高复杂光照图像虚拟重建效果,提出基于融合场景深度估计和视觉传达的复杂光照图像虚拟重建方法。针对不同场景深度混频光照的相互干扰采用相关匹配降噪方法实现图像... 复杂光照图像虚拟中受到光照强度不均衡性影响导致重建效果不好,为了提高复杂光照图像虚拟重建效果,提出基于融合场景深度估计和视觉传达的复杂光照图像虚拟重建方法。针对不同场景深度混频光照的相互干扰采用相关匹配降噪方法实现图像降噪处理,以光照图像低亮度区域内亮度值中位数作为场景深度的参考值,采用全局特性和局部细节特征拟合的方法实现对复杂光照图像的场景深度检测和视觉跟踪拟合,采用HSV空间特征分解方法实现对不同场景中光照图片亮度通道融合处理,提取场景物体边缘、纹理等细节信息,根据场景深度检测和全局对比度融合下的视觉传达效果实现复杂光照图像虚拟重建。测试结果得知,采用该方法进行复杂光照图像虚拟重建的视觉表达能力较好,重建后的图像细节展示能力较强,能准确重建暗区域内隐藏的图像信息,两个数据集图像的峰值信噪比较高,均方根误差较低,分别为45.63 dB、53.21 dB和0.366、0.265,且重建时长短,仅为1.5 s,具有较强的重建性能。 展开更多
关键词 融合场景深度 视觉传达 复杂光照图像 虚拟重建 细节特征
原文传递
基于人体和场景上下文的多人3D姿态估计 被引量:2
9
作者 何建航 孙郡瑤 刘琼 《软件学报》 EI CSCD 北大核心 2024年第4期2039-2054,共16页
深度歧义是单帧图像多人3D姿态估计面临的重要挑战,提取图像上下文对缓解深度歧义极具潜力.自顶向下方法大多基于人体检测建模关键点关系,人体包围框粒度粗背景噪声占比较大,极易导致关键点偏移或误匹配,还将影响基于人体尺度因子估计... 深度歧义是单帧图像多人3D姿态估计面临的重要挑战,提取图像上下文对缓解深度歧义极具潜力.自顶向下方法大多基于人体检测建模关键点关系,人体包围框粒度粗背景噪声占比较大,极易导致关键点偏移或误匹配,还将影响基于人体尺度因子估计绝对深度的可靠性.自底向上的方法直接检出图像中的人体关键点再逐一恢复3D人体姿态.虽然能够显式获取场景上下文,但在相对深度估计方面处于劣势.提出新的双分支网络,自顶向下分支基于关键点区域提议提取人体上下文,自底向上分支基于三维空间提取场景上下文.提出带噪声抑制的人体上下文提取方法,通过建模“关键点区域提议”描述人体目标,建模姿态关联的动态稀疏关键点关系剔除弱连接减少噪声传播.提出从鸟瞰视角提取场景上下文的方法,通过建模图像深度特征并映射鸟瞰平面获得三维空间人体位置布局;设计人体和场景上下文融合网络预测人体绝对深度.在公开数据集MuPoTS-3D和Human3.6M上的实验结果表明:与同类先进模型相比,所提模型HSC-Pose的相对和绝对3D关键点位置精度至少提高2.2%和0.5%;平均根关键点位置误差至少降低4.2 mm. 展开更多
关键词 多人场景3D姿态估计 关键点区域提议 人体上下文 场景上下文 人体绝对深度
在线阅读 下载PDF
基于局部对齐单目视频深度的三维场景重建 被引量:1
10
作者 徐光锴 赵峰 《中国科学技术大学学报》 CAS CSCD 北大核心 2024年第4期13-22,12,66,共12页
单目深度估计方法在各种场景下已经取得了较强的鲁棒性,该类方法通常预测尺度偏移量未知的不变仿射深度而非度量深度,因为收集大规模的不变仿射深度训练数据比收集度量深度训练数据容易得多。然而,在某些基于视频的应用场景中,例如视频... 单目深度估计方法在各种场景下已经取得了较强的鲁棒性,该类方法通常预测尺度偏移量未知的不变仿射深度而非度量深度,因为收集大规模的不变仿射深度训练数据比收集度量深度训练数据容易得多。然而,在某些基于视频的应用场景中,例如视频深度估计和三维场景重建,每帧预测的深度中存在的未知比例和偏移量值可能会导致预测的深度不一致。为了解决该问题,我们提出了一种基于局部加权线性回归的方法,通过利用稀疏锚点恢复深度的尺度图和偏移量图,以保证连续帧之间的一致性。大量的实验表明,我们的方法可以在几个零样本基准上显著降低现有技术方法的Rel误差(相对误差)。此外,我们收集了630万张RGBD图像对来训练鲁棒的深度模型。通过局部恢复尺度和偏移量,我们的ResNet50-backbone模型性能甚至超过了最先进的DPT ViT-Large模型。与基于几何的重建方法相结合,我们提出了一种新的稠密三维场景重建流程,既能受益于稀疏点的尺度一致性,又能受益于单目深度估计方法的鲁棒性。通过对视频的每一帧依次预测深度图,我们可以重建出准确的三维场景几何信息。 展开更多
关键词 三维场景重建 单目深度估计 局部加权线性回归
在线阅读 下载PDF
融合卷积和注意力机制的车辆行人检测算法
11
作者 林卓成 赵尔敦 +1 位作者 张政阳 黄洪 《计算机应用》 CSCD 北大核心 2024年第S01期297-300,共4页
针对复杂场景下的车辆、行人检测困难的问题,提出一种融合卷积和注意力机制的车辆行人检测算法ATDWYOLOX(ATtention DepthWise YOLOX)。在主干网络中采用CSPNeXt,并设计融合卷积和注意力机制的模块ACMBottleneck(Attention Convolution ... 针对复杂场景下的车辆、行人检测困难的问题,提出一种融合卷积和注意力机制的车辆行人检测算法ATDWYOLOX(ATtention DepthWise YOLOX)。在主干网络中采用CSPNeXt,并设计融合卷积和注意力机制的模块ACMBottleneck(Attention Convolution Mix Bottleneck);在特征融合网络中,设计融合深度可分离卷积和注意力机制的网络ATDW-PAFPN(ATtention DepthWise Progressive Asymmetric Feature Pyramid Network);在损失函数中,使用完全交并比(CIoU)和Varifocal Loss。在公开数据集BDD100K上的实验结果表明,所提算法平均检测准确率(mAP)相较于YOLOX提升了2.52个百分点,能较好地完成复杂场景下车辆行人的检测任务。 展开更多
关键词 复杂场景 目标检测 YOLOX 深度可分离卷积 注意力机制
在线阅读 下载PDF
面向大跨度场景的全景深快速聚焦成像法
12
作者 魏浩东 杨宝权 +2 位作者 王周义 张兴国 邢强 《仪器仪表学报》 EI CAS CSCD 北大核心 2024年第7期75-85,共11页
非结构化场景在特种行业中作用十分关键,保证其内表面健康检测对装置的安全运行至关重要。但其内表面景深跨度大,极易引起常规相机成像时的景深不足或景深误匹配,致使聚焦模糊,影响表面缺陷检测效果。因此,本文提出了基于极值搜索算法... 非结构化场景在特种行业中作用十分关键,保证其内表面健康检测对装置的安全运行至关重要。但其内表面景深跨度大,极易引起常规相机成像时的景深不足或景深误匹配,致使聚焦模糊,影响表面缺陷检测效果。因此,本文提出了基于极值搜索算法的聚焦跟踪曲线快速构造法,并实现了相机的快速高清成像。首先,建立了聚焦跟踪曲线的基本构造方法;其次,提出了极值搜索算法,简化曲线构造过程;最后,设计基于A/B标定板的单/多聚焦跟踪曲线构造方式,并分析其对成像清晰度的影响。结果表明,本算法在准确聚焦的同时,有效减少了图像采集次数且将聚焦速度提高了34.8%。基于多聚焦跟踪曲线的全景深成像,其图像客观评价指标均值提高了10.35%。可实现100~1 000 mm景深跨度下0.5 mm裂纹的清晰分辨。因此,该方法能为常规相机的非结构化场景中高清全景深成像提供解决方案。 展开更多
关键词 非结构化场景 跟踪曲线 自动聚焦 全景深
原文传递
基于真实场景的情绪识别研究
13
作者 熊昆洪 贾贞超 +3 位作者 高峰 文虹茜 卿粼波 高励 《现代计算机》 2024年第1期18-25,共8页
情绪识别研究从实验室环境推进到无约束的真实场景中时面临很多问题。真实场景中不受限制的个体活动和复杂环境使面部图像、语音等单一模态的数据无法可靠获取,并且在真实场景中人们自发的情绪更加微妙,表达强度不大,导致识别难度增加... 情绪识别研究从实验室环境推进到无约束的真实场景中时面临很多问题。真实场景中不受限制的个体活动和复杂环境使面部图像、语音等单一模态的数据无法可靠获取,并且在真实场景中人们自发的情绪更加微妙,表达强度不大,导致识别难度增加。因此,为了更加稳健地识别真实场景中的个体情绪,针对个体活动的特点,设计了特征提取网络充分挖掘面部、骨架、姿态及场景等多模态数据中的情绪信息进行相互补充;同时,关注不同数据间的联系,设计了特征融合模块融合多种特征。网络在具有挑战性的公共空间真实场景的PLPS-E数据集上取得了最佳识别性能,VAD维度情绪识别准确率达到了74.62%、79.15%、87.94%;网络在相对简单的真实场景FABE数据集上也达到了相当的性能,维度V的识别准确率达到了98.39%。实验表明了算法的有效性。 展开更多
关键词 情绪识别 真实场景 多模态 特征深度融合
在线阅读 下载PDF
基于多任务深度卷积网络的雾天能见度测量
14
作者 喻丽春 刘金清 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第4期143-152,共10页
为了解决高速公路在能见度监测时存在能见度仪器成本高,部署密度不够,小尺度团雾检测困难等问题,提出一种基于多任务深度卷积网络的能见度测量算法.参照大气散射模型,构造多任务卷积神经网络,分别估算图像透射率、大气光和图像场景深度... 为了解决高速公路在能见度监测时存在能见度仪器成本高,部署密度不够,小尺度团雾检测困难等问题,提出一种基于多任务深度卷积网络的能见度测量算法.参照大气散射模型,构造多任务卷积神经网络,分别估算图像透射率、大气光和图像场景深度,并根据能见度检测原理求解大气消光系数,获取图像能见度.实验分析表明,该文算法比传统方法准确率提高4%以上,与能见度仪测量值对比平均误差小于10%,能够满足实际要求,且适用场景更广. 展开更多
关键词 透射率 卷积网络 能见度 高速公路 场景深度
原文传递
基于无监督深度学习的图像拼接实验设计与实现
15
作者 孙彦景 王兴兴 +2 位作者 云霄 张晓光 周玉 《实验室研究与探索》 CAS 北大核心 2024年第1期114-118,168,共6页
在智能交通、虚拟现实和遥感监控等图像应用领域,通过图像拼接可将多个摄像头获取的图像进行宽视野整体呈现。针对当前数字图像处理和模式识别等电子信息类专业课程缺少图像拼接相关的教学案例以及大视差图像拼接时存在伪影、失真等问题... 在智能交通、虚拟现实和遥感监控等图像应用领域,通过图像拼接可将多个摄像头获取的图像进行宽视野整体呈现。针对当前数字图像处理和模式识别等电子信息类专业课程缺少图像拼接相关的教学案例以及大视差图像拼接时存在伪影、失真等问题,给出一种基于景深-彩色图像融合的无监督深度学习图像拼接方法。采用彩色图像对应的景深图进行图像融合,计算单应性变换获得粗略对齐的图像,以低分辨率分支和高分辨率对齐分支获得精细对齐的图像,使用通道注意力和扩张卷积提升拼接效果。在不同数据集及多个场景下测试了视差图像拼接的效果,验证了该方法在真实场景下进行大视差图像拼接及多摄像头图像拼接的有效性。 展开更多
关键词 图像拼接 单应性估计 无监督深度学习 景深
在线阅读 下载PDF
结合深度图和红通道最小强度先验的水下图像复原
16
作者 李月梅 侯国家 +2 位作者 王国栋 潘振宽 黄宝香 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2024年第6期904-914,共11页
针对水下图像雾化、模糊等问题,提出结合深度图和红通道最小强度先验的水下图像复原变分方法.基于完整的水下成像模型,首先设计了一种自适应加权融合亮度、梯度及色差等信息的场景深度估计方法,计算3个通道的透射率;然后根据前向散射分... 针对水下图像雾化、模糊等问题,提出结合深度图和红通道最小强度先验的水下图像复原变分方法.基于完整的水下成像模型,首先设计了一种自适应加权融合亮度、梯度及色差等信息的场景深度估计方法,计算3个通道的透射率;然后根据前向散射分量建立变分模型的数据项,对拟复原图像引入红通道最小强度先验作为变分能量方程规则项,借助图像金字塔,采用粗尺度到细尺度逐步优化策略进行模糊核估计;最后利用交替方向乘子法迭代求解,解决变分模型带来的非光滑优化问题.在UIEB数据集上进行了定性和定量实验,通过UCIQE,FADE和CPBD客观评价指标对比,结果表明,所提方法的评价结果比经典方法平均分别提升15%以上,复原后的图像具有更高的清晰度和更丰富的边缘信息. 展开更多
关键词 完整水下成像模型 深度图 红通道最小强度先验 变分模型 交替方向乘子法
在线阅读 下载PDF
自适应融合RGB图像特征的稀疏深度修复 被引量:1
17
作者 周恒 李滔 +1 位作者 孙明明 武丹丹 《海军航空大学学报》 2024年第2期241-248,共8页
深度修复的目的是从稀疏深度图像中恢复出稠密的深度图像。现有方法通常是以稀疏深度图像及其对应的RGB图像为输入,通过1个卷积神经网络恢复出密集深度图像。然而,普通的卷积层在处理稀疏且不规则的深度信息时有较大的局限性,同时,RGB... 深度修复的目的是从稀疏深度图像中恢复出稠密的深度图像。现有方法通常是以稀疏深度图像及其对应的RGB图像为输入,通过1个卷积神经网络恢复出密集深度图像。然而,普通的卷积层在处理稀疏且不规则的深度信息时有较大的局限性,同时,RGB图像特征和深度图像特征属于不同的模态。针对这些问题,文章提出了自适应稀疏不变模块,根据输入像素的有效性来处理稀疏深度,并提出了结合注意力机制的多尺度特征融合模块,在关注有效特征的同时,抑制不必要的特征,进一步提高深度修复性能。文章在NYUv2数据集上进行了一系列实验,实验结果表明了所提出算法和模块的有效性。 展开更多
关键词 深度图像修复 特征融合 室内场景 注意力机制
在线阅读 下载PDF
基于深度图像的人体目标检测方法
18
作者 唐其伟 杜卉然 +1 位作者 程伟 陈刚 《自动化与信息工程》 2024年第6期73-79,92,共8页
针对电梯轿厢场景下,基于传统RGB图像实现人体目标检测易受电梯轿厢内饰、光照、乘客外貌特征等因素影响,难以实现稳定、准确的乘客数量检测的问题,提出一种基于深度图像的人体目标检测方法。首先,设计深度图像采集装置,构建人体目标深... 针对电梯轿厢场景下,基于传统RGB图像实现人体目标检测易受电梯轿厢内饰、光照、乘客外貌特征等因素影响,难以实现稳定、准确的乘客数量检测的问题,提出一种基于深度图像的人体目标检测方法。首先,设计深度图像采集装置,构建人体目标深度图像数据集;然后,提出一种适配专用推理架构的限制采样尺度及线性激活的YOLOv8网络优化方法。经实验验证,该方法在边缘计算平台上具有0.984的AP@0.5准确率及44 ms的推理延时,满足电梯轿厢场景下人体目标实时检测的需求,提升了电梯的运行效率及安全性。 展开更多
关键词 电梯轿厢场景 深度图像 人体目标检测 边缘计算
在线阅读 下载PDF
基于景深约束的单幅雾天图像去雾算法 被引量:28
19
作者 南栋 毕笃彦 +2 位作者 马时平 何林远 娄小龙 《电子学报》 EI CAS CSCD 北大核心 2015年第3期500-504,共5页
本文提出一种基于景深约束的单幅雾天图像去雾算法,该算法首先对退化模型进行变换以满足Kimmel变分框架的要求;其次,考虑到人眼视网膜锥细胞对绿光的敏感性,将绿光分量作为大气传输图变分求解模型的输入;最后,利用景深图像特性,在8邻域... 本文提出一种基于景深约束的单幅雾天图像去雾算法,该算法首先对退化模型进行变换以满足Kimmel变分框架的要求;其次,考虑到人眼视网膜锥细胞对绿光的敏感性,将绿光分量作为大气传输图变分求解模型的输入;最后,利用景深图像特性,在8邻域快速求解中对能量函数进行约束,从而有效提升去雾图像的视觉效果.实验结果表明本文算法在获得最佳去雾效果的同时,具有较好的实用性和较少的计算资源消耗. 展开更多
关键词 图像去雾 退化模型 景深 变分模型
在线阅读 下载PDF
复杂场景下深度表示的无人机目标检测算法 被引量:15
20
作者 李斌 张彩霞 +1 位作者 杨阳 张文生 《计算机工程与应用》 CSCD 北大核心 2020年第15期118-123,共6页
复杂地物背景下的无人机检测是“低小慢”目标检测任务中的难点问题。针对环境物体的扰动、无人机目标小而导致无人机目标检测算法准确率低,提出一种基于深度表示的复杂场景无人机目标检测方法。针对无人机目标位置检测不准确的问题,采... 复杂地物背景下的无人机检测是“低小慢”目标检测任务中的难点问题。针对环境物体的扰动、无人机目标小而导致无人机目标检测算法准确率低,提出一种基于深度表示的复杂场景无人机目标检测方法。针对无人机目标位置检测不准确的问题,采用广义交并比度量目标真实位置与候选目标位置的偏差。针对正负样本不均衡和易分样本多而导致的学习效果差的问题,通过焦点损失的调制系数,降低负样本和易分样本的损失贡献。调整位置损失与类别损失的权重,提升位置准确性。为了验证性能,建立了一个无人机数据集。实验表明该算法在无人机数据上比YOLOv3提升了20.04%,在PASCAL VOC上比SSD和Retinanet的检测精度提升巨大。 展开更多
关键词 复杂场景 深度表示 广义交并比损失 焦点损失 损失权重
在线阅读 下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部