期刊文献+
共找到103篇文章
< 1 2 6 >
每页显示 20 50 100
Robust HDR 3D reconstruction with an event camera via inverted spatial-shifting Gray-code encoding
1
作者 Hao Yuan Qican Zhang Yajun Wang 《Chinese Optics Letters》 2025年第10期150-154,共5页
Event cameras,with their significantly higher dynamic range and sensitivity to intensity variations compared to frame cameras,provide new possibilities for 3D reconstruction in high-dynamic-range(HDR)scenes.However,th... Event cameras,with their significantly higher dynamic range and sensitivity to intensity variations compared to frame cameras,provide new possibilities for 3D reconstruction in high-dynamic-range(HDR)scenes.However,the binary event data stream produced by event cameras presents significant challenges for achieving high-precision and efficient 3D reconstruction.In addressing these issues,we observe that the binary projection inherent to Gray-code-based 3D reconstruction naturally aligns with the event camera's imaging mechanism.However,achieving high-accuracy 3D reconstruction using a Gray code remains hindered by two key factors:inaccurate boundary extraction and the degradation of high-order dense Gray code patterns due to spatial blurring.For the first challenge,we propose an inverted Gray code strategy to improve region segmentation and recognition,achieving more precise and easily identifiable Gray code boundaries.For the second challenge,we introduce a spatial-shifting Gray-code encoding method.By spatially shifting Gray code patterns with lower encoding density,a combined encoding is achieved,enhancing the depth resolution and measurement accuracy.Experimental validation across general and HDR scenes demonstrates the effectiveness of the proposed methods. 展开更多
关键词 3D reconstruction high-dynamic-range scene event camera Gray code
原文传递
Passive non-line-of-sight imaging for moving targets with an event camera 被引量:1
2
作者 王丛赫 贺与同 +4 位作者 王霞 黄泓皓 闫昌达 张鑫 陈宏伟 《Chinese Optics Letters》 SCIE EI CAS CSCD 2023年第6期54-60,共7页
Non-line-of-sight[NLOS]imaging is an emerging technique for detecting objects behind obstacles or around corners.Recent studies on passive NLOS mainly focus on steady-state measurement and reconstruction methods,which... Non-line-of-sight[NLOS]imaging is an emerging technique for detecting objects behind obstacles or around corners.Recent studies on passive NLOS mainly focus on steady-state measurement and reconstruction methods,which show limitations in recognition of moving targets.To the best of our knowledge,we propose a novel event-based passive NLOS imaging method.We acquire asynchronous event-based data of the diffusion spot on the relay surface,which contains detailed dynamic information of the NLOS target,and efficiently ease the degradation caused by target movement.In addition,we demonstrate the event-based cues based on the derivation of an event-NLOS forward model.Furthermore,we propose the first event-based NLOS imaging data set,EM-NLOS,and the movement feature is extracted by time-surface representation.We compare the reconstructions through event-based data with frame-based data.The event-based method performs well on peak signal-to-noise ratio and learned perceptual image patch similarity,which is 20%and 10%better than the frame-based method. 展开更多
关键词 non-line-of-sight imaging event camera event-based representation
原文传递
DNEFNET: Denoising and Frequency Domain Feature Enhancement Event Fusion Network for Image Deblurring
3
作者 Kangkang Zhao Yaojie Chen Jianbo Li 《Computers, Materials & Continua》 2025年第7期745-762,共18页
Traditional cameras inevitably suffer from motion blur when facing high-speed moving objects.Event cameras,as high temporal resolution bionic cameras,record intensity changes in an asynchronous manner,and their record... Traditional cameras inevitably suffer from motion blur when facing high-speed moving objects.Event cameras,as high temporal resolution bionic cameras,record intensity changes in an asynchronous manner,and their recorded high temporal resolution information can effectively solve the problem of time information loss in motion blur.Existing event-based deblurring methods still face challenges when facing high-speed moving objects.We conducted an in-depth study of the imaging principle of event cameras.We found that the event stream contains excessive noise.The valid information is sparse.Invalid event features hinder the expression of valid features due to the uncertainty of the global threshold.To address this problem,a denoising-based long and short-term memory module(DTM)is designed in this paper.The DTM suppressed the original event information by noise reduction process.Invalid features in the event stream and solves the problem of sparse valid information in the event stream,and it also combines with the long short-term memory module(LSTM),which further enhances the event feature information in the time scale.In addition,through the in-depth understanding of the unique characteristics of event features,it is found that the high-frequency information recorded by event features does not effectively guide the fusion feature deblurring process in the spatial-domain-based feature processing,and for this reason,we introduce the residual fast fourier transform module(RES-FFT)to further enhance the high-frequency characteristics of the fusion features by performing the feature extraction of the fusion features from the perspective of the frequency domain.Ultimately,our proposed event image fusion network based on event denoising and frequency domain feature enhancement(DNEFNET)achieved Peak Signal-to-Noise Ratio(PSNR)/Structural Similarity Index Measure(SSIM)scores of 35.55/0.972 on the GoPro dataset and 38.27/0.975 on the REBlur dataset,achieving the state of the art(SOTA)effect. 展开更多
关键词 Image deblurring event camera DENOISING frequency domain Algorithm 1:DNEFNET image processing
在线阅读 下载PDF
基于事件相机与事件-信号-图像转换的市政道路病害检测方法
4
作者 朱昱 刘仕福 +4 位作者 李光耀 茹晨 南君丽 连宏兵 童峥 《市政技术》 2026年第1期67-74,84,共9页
基于数字图像和三维激光的市政道路病害检测方法易受强光、阴影等复杂环境条件干扰,准确性难以保障。针对这一问题,笔者提出了一种基于事件相机与事件-信号-图像转换的市政道路病害检测与形态分割方法。首先,事件相机是一种超高频动态... 基于数字图像和三维激光的市政道路病害检测方法易受强光、阴影等复杂环境条件干扰,准确性难以保障。针对这一问题,笔者提出了一种基于事件相机与事件-信号-图像转换的市政道路病害检测与形态分割方法。首先,事件相机是一种超高频动态捕捉传感器,用于采集路表事件数据并将其表示为事件特征单元,实现强光、阴影等复杂市政道路环境下的路表信息采集;其次,自适应事件特征累积算法对比相邻时间戳的事件特征单元的相似度,并将其累积生成病害特征矩阵,实现市政道路病害的事件数据有效累计;最后,基于短时傅里叶变换深度神经网络,自动提取特征矩阵中的病害特征并实现病害检测与形态分割。在不同采集速度和光照环境下进行了准确性与稳定性测试,涵盖1 745组市政道路检测数据。试验结果表明,该方法的病害形态分割召回率、精度、F_(1)指数与交并比分别为87.23%、87.28%、87.24与76.69%,显著优于传统数字图像和三维激光方法。此外,该方法在强光、阴影等环境条件下的病害形态分割准确性基本保持稳定。 展开更多
关键词 市政道路 病害检测 事件相机 ESI-C
在线阅读 下载PDF
Inter-event interval microscopy for event cameras
5
作者 CHANGQING SU YANQIN CHEN +5 位作者 ZIHAN LIN ZHEN CHENG YOU ZHOU BO XIONG ZHAOFEI YU TIEJUN HUANG 《Photonics Research》 2025年第10期2843-2853,共11页
Event cameras detect intensity changes rather than absolute intensity,recording variations as a stream of“event.”Intensity reconstruction from these sparse events remains a significant challenge.Previous approaches ... Event cameras detect intensity changes rather than absolute intensity,recording variations as a stream of“event.”Intensity reconstruction from these sparse events remains a significant challenge.Previous approaches focused on transforming motion-induced events into videos or achieving intensity imaging for static scenes through modulation devices at the acquisition end.In this paper,we present inter-event interval microscopy(IEIM),a paradigm-shifting technique enabling static and dynamic fluorescence imaging through photon flux-to-temporal encoding,which integrates a pulse-light modulation device into a microscope equipped with an event camera.We also develop the inter-event interval(IEI)reconstruction algorithm for IEIM,which quantifies time intervals between consecutive events at each pixel.With a fixed threshold in the event camera,this time interval can directly encode intensity.The integration of pulse modulation enables IEIM to achieve static and dynamic fluorescence imaging with a fixed event camera.We evaluate the state-of-the-art performance of IEIM using simulated and real-world data under both static and dynamic scenes.We also demonstrate that IEIM achieves high-dynamic,high-speed imaging at 800 Hz in mimetic dynamic mice brain tissues.Furthermore,we show that IEIM enables imaging the movements of in vivo freshwater euglenae at 500 Hz. 展开更多
关键词 intensity imaging intensity changes event cameras intensity reconstruction modulation devices pulse light modulation static dynamic fluorescence imaging inter event interval microscopy
原文传递
Dynamic Vision-Enabled Intelligent Micro-Vibration Estimation Method with Spatiotemporal Pattern Consistency
6
作者 Shupeng Yu Xiang Li +2 位作者 Yaguo Lei Bin Yang Naipeng Li 《IEEE/CAA Journal of Automatica Sinica》 2025年第11期2359-2361,共3页
Dear Editor,This letter proposes a novel dynamic vision-enabled intelligent micro-vibration estimation method with spatiotemporal pattern consistency.Inspired by biological vision,dynamic vision data are collected by ... Dear Editor,This letter proposes a novel dynamic vision-enabled intelligent micro-vibration estimation method with spatiotemporal pattern consistency.Inspired by biological vision,dynamic vision data are collected by the event camera,which is able to capture the micro-vibration information of mechanical equipment,due to the significant advantage of extremely high temporal sampling frequency. 展开更多
关键词 dynamic vision micro vibration mechanical equipmentdue spatiotemporal pattern consistency biological visiondynamic vision data intelligent estimation event camera event camerawhich
在线阅读 下载PDF
小型无人机视觉传感器避障方法综述 被引量:5
7
作者 王家亮 董楷 +2 位作者 顾兆军 陈辉 韩强 《西安电子科技大学学报》 北大核心 2025年第1期60-79,共20页
无人机自主飞行避障技术是无人机安全飞行和应用中最为基础和关键的技术,也是当前无人机领域的研究热点。随着深度学习在计算机视觉方向的应用,以及事件相机等视觉传感器技术的迅速发展与不断完善,基于视觉传感器的无人机自主飞行避障... 无人机自主飞行避障技术是无人机安全飞行和应用中最为基础和关键的技术,也是当前无人机领域的研究热点。随着深度学习在计算机视觉方向的应用,以及事件相机等视觉传感器技术的迅速发展与不断完善,基于视觉传感器的无人机自主飞行避障方法取得一定的进步,但目前有些研究方法在复杂场景下仍存在很大的挑战以及存在一些列亟待解决的问题,在精准性、实时性以及算法鲁棒性方面仍有改进空间。首先介绍无人机避障的相关概念及问题难点;然后将基于视觉传感器的避障算法根据采用的硬件及技术手段,具体划分为传统避障方法、基于深度学习避障方法、基于处理事件流的避障方法、基于传感器融合避障方法,和基于视觉避障的决策层避障方法,并分别介绍每类避障方法相关研究进展与研究成果,以及分析各类避障方法的优缺点;最后总结现有无人机避障算法存在的问题,并对未来研究工作进行展望。 展开更多
关键词 无人机 避障传感器 计算机视觉 事件相机
在线阅读 下载PDF
Android中Camera类库分析及其典型应用
8
作者 胡江楠 刘高平 《浙江万里学院学报》 2014年第1期91-98,共8页
文章主要对Android系统中Camera类库的几个主要函数以及事件进行详细解析,并且通过拍照、视频录制两个典型应用说明Camera的工作流程、相关函数的调用情况以及开发人员在开发Camera应用程序时在AndroidManifest.xml文件中必须加入的权限。
关键词 函数 事件 流程
在线阅读 下载PDF
类脑赋能视觉增强:原理、方法与前沿进展 被引量:1
9
作者 余磊 施柏鑫 +4 位作者 王威 余肇飞 郭宇飞 乔宁 夏桂松 《中国图象图形学报》 北大核心 2025年第6期1593-1615,共23页
类脑视觉感知仿效生物大脑处理视觉信息的机制,通过构建神经形态视觉模型来完成视觉感知任务。事件相机作为一种新型类脑神经形态视觉传感器,仅感知场景光强的动态变化,输出表示场景光强变化的事件脉冲(或简称“事件”)。这种特殊的成... 类脑视觉感知仿效生物大脑处理视觉信息的机制,通过构建神经形态视觉模型来完成视觉感知任务。事件相机作为一种新型类脑神经形态视觉传感器,仅感知场景光强的动态变化,输出表示场景光强变化的事件脉冲(或简称“事件”)。这种特殊的成像方式使得事件相机不仅具有高动态范围特性,还能对运动引发的场景亮度变化进行几乎连续(μs级)的异步响应。因此,融合事件脉冲不仅可以有效补偿由于目标运动过快导致的帧内和帧间信息缺失,还能填补过曝光区域的饱和失真,缓解真实复杂场景中的运动模糊、视频插帧、卷帘畸变和过曝光等视频降质问题。本报告将深入探讨以事件相机为代表的类脑脉冲视觉成像方法在视频增强任务中的理论原理和技术手段,总结和归纳近年来融合类脑视觉脉冲的视频增强算法的国内外最新进展。同时,针对该领域所面临的诸如数据处理效率较低、暗光条件性能不佳与空间分辨率不足等瓶颈和挑战做出了相对应的分析与讨论。 展开更多
关键词 事件相机 类脑脉冲视觉 视频增强 高动态范围(HDR) 运动模糊消除
原文传递
基于事件帧和RGB帧融合的交通场景目标检测方法
10
作者 黄家才 常国卫 +3 位作者 洪颖 高芳征 杨博 邵立奇 《计算机工程与应用》 北大核心 2025年第24期251-260,共10页
将事件数据和帧数据多模态融合的方法在交通领域目标检测中的应用日益广泛。然而,目前大多方法使用的帧数据主要来源于事件相机直接输出的灰度图像,这限制了其在识别交通信号灯等复杂环境中区分目标的能力。对此,提出了一种新颖的多模... 将事件数据和帧数据多模态融合的方法在交通领域目标检测中的应用日益广泛。然而,目前大多方法使用的帧数据主要来源于事件相机直接输出的灰度图像,这限制了其在识别交通信号灯等复杂环境中区分目标的能力。对此,提出了一种新颖的多模态目标检测方法,该方法结合了RGB帧和事件帧,包含一个特征融合模块AddWithBAM,结合了通道注意力和空间注意力机制,并在C3模块中引入了第四代可变形卷积网络(deformable convolutional networks,DCNv4),以增强对复杂几何形状和大尺度变化的感知,同时利用可变形卷积实现轻量化设计。基于公共数据集PKU-DDD17-CAR和MVSEC的实验结果显示,平均精度mAP分别达到了94.5%和96.7%。由于缺乏包含RGB帧和事件帧的公共交通数据集,构建了一个新的交通数据集,在该数据集上进行的消融实验显示,mAP提升至96.4%,模型参数量减少了9.1%。在实际场景的检测实验中,平均推理时间为13.7 ms。所提的多模态双流网络架构有效提升了在复杂交通环境中的目标检测性能。 展开更多
关键词 事件相机 目标检测 多模态特征融合 注意力机制
在线阅读 下载PDF
Bio-inspired Vision Mapping and Localization Method Based on Reprojection Error Optimization and Asynchronous Kalman Fusion
11
作者 Shijie Zhang Tao Tang +3 位作者 Taogang Hou Yuxuan Huang Xuan Pei Tianmiao Wang 《Chinese Journal of Mechanical Engineering》 2025年第4期266-281,共16页
Bio-inspired visual systems have garnered significant attention in robotics owing to their energy efficiency,rapid dynamic response,and environmental adaptability.Among these,event cameras-bio-inspired sensors that as... Bio-inspired visual systems have garnered significant attention in robotics owing to their energy efficiency,rapid dynamic response,and environmental adaptability.Among these,event cameras-bio-inspired sensors that asynchronously report pixel-level brightness changes called’events’,stand out because of their ability to capture dynamic changes with minimal energy consumption,making them suitable for challenging conditions,such as low light or high-speed motion.However,current mapping and localization methods for event cameras depend primarily on point and line features,which struggle in sparse or low-feature environments and are unsuitable for static or slow-motion scenarios.We addressed these challenges by proposing a bio-inspired vision mapping and localization method using active LED markers(ALMs)combined with reprojection error optimization and asynchronous Kalman fusion.Our approach replaces traditional features with ALMs,thereby enabling accurate tracking under dynamic and low-feature conditions.The global mapping accuracy significantly improved by minimizing the reprojection error,with corner errors reduced from 16.8 cm to 3.1 cm after 400 iterations.The asynchronous Kalman fusion of multiple camera pose estimations from ALMs ensures precise localization with a high temporal efficiency.This method achieved a mean translation error of 0.078 m and a rotational error of 5.411°while evaluating dynamic motion.In addition,the method supported an output rate of 4.5 kHz while maintaining high localization accuracy in UAV spiral flight experiments.These results demonstrate the potential of the proposed approach for real-time robot localization in challenging environments. 展开更多
关键词 Bio-inspired vision event camera Mapping LOCALIZATION
在线阅读 下载PDF
复杂环境下无人机视觉惯性里程计设计 被引量:2
12
作者 汤琴琴 王立喜 +3 位作者 侍经纬 李春辉 刘云平 敖洋钒 《中国惯性技术学报》 北大核心 2025年第2期140-146,共7页
为提高无人机在快速移动、光照变化大等复杂环境下的位姿精度,设计了一种单目事件相机/单目标准相机/惯性测量装置(IMU)融合的视觉惯性里程计。首先利用IMU的角速度和视觉惯性里程计后端的线速度补偿事件帧的旋转和平移,生成高质量事件... 为提高无人机在快速移动、光照变化大等复杂环境下的位姿精度,设计了一种单目事件相机/单目标准相机/惯性测量装置(IMU)融合的视觉惯性里程计。首先利用IMU的角速度和视觉惯性里程计后端的线速度补偿事件帧的旋转和平移,生成高质量事件帧;其次采用BEBLID描述子提取算法增强事件帧和标准帧的特征匹配能力,使用基于帧的特征跟踪方法对事件帧和标准帧进行独立跟踪,结合随机抽样一致算法和三角测量进行深度估计,并以基于优化的方式将三种传感器进行紧耦合。最后在UZH-FPV数据集上进行了实验验证。实验结果表明,在明暗变化大的场景下,所提方法的无人机平均绝对定位误差相比PL-EVIO减小了19.6%;在高速场景下,相比Ultimate SLAM减小了46.9%。 展开更多
关键词 事件相机 视觉惯性里程计 运动补偿 图像匹配 无人机
在线阅读 下载PDF
基于事件相机的图像语义分割方法
13
作者 于男男 王超毅 +5 位作者 乔羽 任健康 周东生 魏小鹏 张强 杨鑫 《计算机辅助设计与图形学学报》 北大核心 2025年第9期1560-1572,共13页
语义分割技术对自动驾驶等实际场景的图像处理十分重要,然而基于传统相机的语义分割仍面临动态光照下信息缺失以及高速运动目标的运动模糊等问题.为此,引入高动态范围和高响应速度的事件相机,能够在恶劣光照和高速运动条件下有效成像,... 语义分割技术对自动驾驶等实际场景的图像处理十分重要,然而基于传统相机的语义分割仍面临动态光照下信息缺失以及高速运动目标的运动模糊等问题.为此,引入高动态范围和高响应速度的事件相机,能够在恶劣光照和高速运动条件下有效成像,并提出了一种基于事件相机的图像语义分割(event-based image semantic segmentation, EVISS)方法.在数据集部分,针对基于事件相机的语义分割数据集较少且标注质量不高的问题,通过仿真环境制作了一个大规模和高精度标注的数据集Carla-Semantic;在网络设计部分,针对分布不均的事件数据特征难提取的问题, EVISS方法通过改进的图拉普拉斯公式和注意力机制,增强图像的全局联系性和上下文依赖,有效地提取高层级事件特征.在所制作的Carla-Semantic数据集上与现有技术Ev-SegNet进行实验的结果表明, EVISS方法在MPA和mIoU评价指标上分别达到87.89%和81.93%,超越了对比方法的表现,有效地实现基于事件相机的图像语义分割. 展开更多
关键词 仿生视觉 图学习 事件相机 语义分割 仿真
在线阅读 下载PDF
融合多频超图的图像语义分割方法
14
作者 于男男 孟政宇 +5 位作者 房友江 孙传昱 殷雪峰 张强 魏小鹏 杨鑫 《图学学报》 北大核心 2025年第6期1267-1273,共7页
语义分割技术作为自动驾驶环境感知的核心任务,在复杂光照和高速运动场景下面临着传统相机成像质量不足的挑战。事件相机凭借微秒级时间分辨率和高动态范围特性,能够有效克服运动模糊和极端光照条件,但其异步稀疏事件数据缺乏纹理和色... 语义分割技术作为自动驾驶环境感知的核心任务,在复杂光照和高速运动场景下面临着传统相机成像质量不足的挑战。事件相机凭借微秒级时间分辨率和高动态范围特性,能够有效克服运动模糊和极端光照条件,但其异步稀疏事件数据缺乏纹理和色彩信息,且背景和目标运动导致事件分布不均匀,为语义特征提取带来显著困难。针对这些问题,提出了一种融合多频超图的事件图像语义分割方法。首先通过频率分解模块提取事件帧的多尺度时空特征,以分离高频运动边缘与低频结构信息;继而设计动态超图构建算法,将不同频率特征映射为超图节点,利用超图卷积捕获跨频率的长程依赖关系,最后通过注意力机制自适应融合特征,增强类别间的判别性。在Carla-Semantic和DDD17-Semantic数据集上的实验表明,该方法在MPA(88.21%)和mIoU(82.68%)指标上优于现有事件分割方法,验证了多频超图模型对事件数据语义理解的提升效果。为基于事件相机的鲁棒性环境感知提供了新思路,特别适用于自动驾驶中的低光照、高速运动等挑战场景。 展开更多
关键词 语义分割 超图 注意力机制 多频融合 事件相机
在线阅读 下载PDF
面向航天器直线特征的事件相机在轨标定方法
15
作者 刘子宾 关棒磊 +3 位作者 谭栋才 余振宝 尚洋 于起峰 《力学学报》 北大核心 2025年第10期2508-2517,共10页
为了解决事件相机在太空态势感知、在轨服务及视觉导航等航天任务中面临的在轨标定难题,提出了一种基于直线特征的标定方法,充分利用了航天器固有的结构特征.与需要专门标定图案的传统标定方法不同,本文方法消除了对特定标定板或预部署... 为了解决事件相机在太空态势感知、在轨服务及视觉导航等航天任务中面临的在轨标定难题,提出了一种基于直线特征的标定方法,充分利用了航天器固有的结构特征.与需要专门标定图案的传统标定方法不同,本文方法消除了对特定标定板或预部署标定基础设施的依赖,使其在此类辅助设备不可用或不实用的真实在轨部署场景中具有实用性和可行性.本文方法充分利用事件相机的成像特性,首先设计了一种基于异步稀疏事件流的鲁棒直线提取算法.即使在空间环境中常见的挑战性光照条件和动态运动场景下,该算法也能够从航天器事件流中直接提取二维直线特征.随后,基于已知的航天器三维模型,构建二维观测直线与三维模型直线间的投影几何约束,利用直接线性变换快速求解出相机内外参数的初始值,为后续优化过程提供稳健的基础.为了进一步提升精度,构建了以有效事件到重投影直线的欧氏距离为度量的代价函数,结合非线性优化算法对焦距、主点、畸变系数及外参数等相机参数进行全局联合优化.仿真与地面事件标定实验结果表明,本文方法在各项标定参数上的精度均优于现有标定方法,验证了其在复杂动态环境下的有效性和鲁棒性.本研究为事件相机在轨标定提供了一种高效、灵活且环境适应性强的解决方案,可为后续位姿测量、卫星跟踪等视觉应用提供可靠的标定参数. 展开更多
关键词 事件相机 航天器 相机标定 直线特征
在线阅读 下载PDF
基于事件及考虑像素级模糊程度的图像去模糊 被引量:2
16
作者 葛城轩 朱尊杰 +4 位作者 陆鸣 张文豪 路荣丰 王国相 郑博仑 《信号处理》 北大核心 2025年第2期312-324,共13页
在图像去模糊任务中,现有的端到端深度学习方法通常使用共享的卷积核来处理图像的整体空间位置,即使用的卷积核在整个图像的所有位置上都是相同的,不会根据具体位置的不同而改变。这意味着这些方法在处理图像时,无论图像中某个区域的模... 在图像去模糊任务中,现有的端到端深度学习方法通常使用共享的卷积核来处理图像的整体空间位置,即使用的卷积核在整个图像的所有位置上都是相同的,不会根据具体位置的不同而改变。这意味着这些方法在处理图像时,无论图像中某个区域的模糊程度如何,都使用相同的卷积核进行处理。然而,在某些复杂的模糊场景中,使用共享卷积核可能无法很好地处理图像的非均匀模糊情况。为此,本文提出了一种创新方法,利用像素级模糊程度来增强端到端图像去模糊的效果。具体来说,本文设计并训练了一个去模糊网络(Deblurring Network,DeblurNet),能够从输入图像和曝光时间内的事件数据中精确估计模糊程度图。随后,本文通过基于模糊程度的特征调制(Degree-based Feature Modulation,DFM)技术,依据模糊程度图自适应调节DeblurNet的特征。DeblurNet是一个端到端卷积神经网络,专门用于复原模糊图像的清晰度,通过动态卷积核来处理不同模糊程度的区域。这一策略实现了对非均匀模糊的空间可变卷积,从而有效地去除图像中的非均匀模糊。本文在合成数据集和真实事件数据集上进行了大量实验,并使用公开方法作为DeblurNet的基线。结果表明,提出的方法能够在合成和真实数据集上持续提升现有方法的性能,展示出较好的泛化能力。 展开更多
关键词 图像运动去模糊 事件相机 模糊度 特征调制
在线阅读 下载PDF
无人机动态视觉时空域事件信息快速滤波方法
17
作者 何佳璐 甄子洋 +1 位作者 刘森林 王爽宇 《电光与控制》 北大核心 2025年第10期14-19,54,共7页
针对无人机高速飞行时动态视觉传感器输出的事件流中大量噪声干扰以及边缘事件丢失问题,提出一种局部事件流快速滤波算法。根据噪声与有效事件时空相关性不同这一特性,从事件流中提取时间窗中事件,构建事件元张量,张量中含有像素空间的... 针对无人机高速飞行时动态视觉传感器输出的事件流中大量噪声干扰以及边缘事件丢失问题,提出一种局部事件流快速滤波算法。根据噪声与有效事件时空相关性不同这一特性,从事件流中提取时间窗中事件,构建事件元张量,张量中含有像素空间的事件信息。事件元张量采用降维映射得到一维事件条,加快信息访问及计算效率,通过计算相邻时间窗下对应像素位置8邻域内事件信息的Hamming距离判断事件相关性,从而实现事件滤波。实验结果表明,所提算法能够剔除低空飞行轨迹下非近邻关系的事件,且不影响其他位置滤波效果,减少了机体运动起始时或缓慢运动时物体边缘事件损失,保证了边缘信息质量,提高了事件图像中物体轮廓清晰度。 展开更多
关键词 事件相机 滤波 无人机 事件元张量 动态视觉传感器
在线阅读 下载PDF
基于图像和事件的无监督学习稠密连续光流估计
18
作者 胡建朗 郭迟 罗亚荣 《武汉大学学报(信息科学版)》 北大核心 2025年第11期2260-2272,共13页
为了获得稠密且连续的光流,并实现长时间间隔光流估计,提出一种基于图像和事件的多模态多尺度递归光流估计网络,它能够融合从输入的单个图像和对应事件流中提取的多尺度特征,并以从粗糙到精细和迭代递归的方式对输出的光流进行优化。为... 为了获得稠密且连续的光流,并实现长时间间隔光流估计,提出一种基于图像和事件的多模态多尺度递归光流估计网络,它能够融合从输入的单个图像和对应事件流中提取的多尺度特征,并以从粗糙到精细和迭代递归的方式对输出的光流进行优化。为了摆脱对光流标注数据的依赖,采用无监督学习的方式对网络进行训练,并设计了动态损失过滤机制,该机制能够自适应地过滤训练过程中的不可靠监督梯度信号,进而实现更加有效的网络训练。采用MVSEC数据集对所提出的网络和策略进行综合对比分析,结果表明,所提方法具有更高的光流估计精度,尤其是在长时间间隔稠密光流估计方面,所提方法在3个室内序列上进行测试,并在平均端点误差和异常值百分比这两项指标上取得了最优结果,分别为1.43、1.87、1.68以及7.54%、14.36%、11.46%,均优于DCEIFlow方法,这说明所提方法不仅能够实现稠密且连续的光流估计,而且在长时间间隔光流估计方面也更加具有优势。 展开更多
关键词 光流估计 事件相机 多模态 无监督学习
原文传递
基于事件相机的水下透明目标识别方法 被引量:1
19
作者 罗偲 郭丰悦 《兵器装备工程学报》 北大核心 2025年第3期195-202,共8页
针对水下环境中透明生物可见性过低,RGB帧图像识别困难的问题,提出一种基于事件相机的水下透明目标分割算法。首先使用事件相机获取图像数据,构建了分别包含6421幅事件帧和RGB帧、共12421个目标的水下透明生物数据集;在编码阶段,分别将... 针对水下环境中透明生物可见性过低,RGB帧图像识别困难的问题,提出一种基于事件相机的水下透明目标分割算法。首先使用事件相机获取图像数据,构建了分别包含6421幅事件帧和RGB帧、共12421个目标的水下透明生物数据集;在编码阶段,分别将事件帧和RGB帧输入CBAM注意力机制改进的残差网络提取特征并进行简单融合;设计边缘线索搜索模块ECSM,利用简单的加权运算获取容易遗漏的细节信息;在解码部分,设计多维度特征融合模块MFFM,更充分地融合各种先验信息,以提高检测精度。在自制的水下透明数据集上进行训练并测试,该算法的平均精度达到了85.8%,FPS达到了66.4 f/s,较多数主流方法都有所提升,证明该方法在水下复杂环境中既保证了实时性,又取得了较好的分割效果。 展开更多
关键词 实例分割 水下透明生物 深度学习 事件相机 注意力机制 边缘检测 多特征融合
在线阅读 下载PDF
低代价高动态大视场低慢小飞行器检测与跟踪 被引量:1
20
作者 常宇轩 杨文 吴金建 《数据采集与处理》 北大核心 2025年第1期86-101,共16页
低空经济的兴起使小型无人机(Unmanned aerial vehicles,UAVs)在物流、测绘与娱乐等领域获得广泛应用,但由此带来的安全风险也日渐凸显。低慢小(Low-slow-small,LSS)目标检测在国家安全、空域监管以及无人机防御等领域具有重要意义,能... 低空经济的兴起使小型无人机(Unmanned aerial vehicles,UAVs)在物流、测绘与娱乐等领域获得广泛应用,但由此带来的安全风险也日渐凸显。低慢小(Low-slow-small,LSS)目标检测在国家安全、空域监管以及无人机防御等领域具有重要意义,能够有效应对小型低空飞行目标带来的潜在威胁。针对现有传感器在低成本、复杂光照与大视场要求上存在的不足,本文提出了一种基于事件相机与RGB相机协同的LSS目标检测系统。首先,借助事件相机高速成像及大动态范围配合智能控制转台进行“扫视”,并通过基于事件的检测算法完成目标初步定位;随后,利用信息协同模块融合双模态数据以提升检测精度;最后,依托RGB相机的高分辨率与动态变焦特性实现“凝视”,并结合提出的图像识别算法进行目标精细化识别与跟踪。在复杂光照与宽视场条件下,该系统兼顾了低代价与高性能,为LSS目标检测提供了有效的新路径。 展开更多
关键词 目标检测与追踪 低慢小目标 事件相机 RGB相机 跨模态协同
在线阅读 下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部