期刊文献+
共找到106篇文章
< 1 2 6 >
每页显示 20 50 100
Quantitative laser speckle blood flow imaging using event cameras
1
作者 Zeren GAO Tongxin LIAO +2 位作者 Shangquan WU Chao LI Yu FU 《Science China(Technological Sciences)》 2026年第3期383-393,共11页
Vascular abnormalities are closely associated with the pathogenesis and progression of numerous diseases, such as thrombosis, tumors, and diabetes. Blood flow velocity serves as a critical biomarker for evaluating per... Vascular abnormalities are closely associated with the pathogenesis and progression of numerous diseases, such as thrombosis, tumors, and diabetes. Blood flow velocity serves as a critical biomarker for evaluating perfusion status. Quantitative detection of full-field blood flow variations in lesion areas holds significant scientific and clinical value for pathological studies,diagnosis, and intraoperative monitoring of related diseases. While laser speckle contrast imaging(LSCI) enables full-field blood flow visualization, its reliance on frame-based sensors necessitates handling massive data volumes, leading to inherent trade-offs among spatiotemporal resolution, real-time performance, and quantitative capabilities. Leveraging the asynchronous dynamic sensing, high temporal sampling rate, and low data redundancy of event cameras, this study proposes a quantitative blood flow imaging method termed laser speckle event imaging(LSEI). Experiments using off-the-shelf event cameras demonstrate that LSEI achieves real-time blood flow imaging with minimal computational overhead compared to frame-based LSCI. Furthermore,we investigate the relationship between event data streams and flow velocity through spatial-temporal autocorrelation analysis,enabling quantitative measurements without compromising temporal or spatial resolution. In in vivo imaging experiments of mouse ear blood flow, LSEI exhibits superior imaging details and real-time performance over conventional methods. The proposed approach holds promise as an efficient tool for diagnosis, therapeutic evaluation, and research on vascular-related diseases. 展开更多
关键词 blood flow imaging laser speckle imaging event cameras
原文传递
Inter-event interval microscopy for event cameras
2
作者 CHANGQING SU YANQIN CHEN +5 位作者 ZIHAN LIN ZHEN CHENG YOU ZHOU BO XIONG ZHAOFEI YU TIEJUN HUANG 《Photonics Research》 2025年第10期2843-2853,共11页
Event cameras detect intensity changes rather than absolute intensity,recording variations as a stream of“event.”Intensity reconstruction from these sparse events remains a significant challenge.Previous approaches ... Event cameras detect intensity changes rather than absolute intensity,recording variations as a stream of“event.”Intensity reconstruction from these sparse events remains a significant challenge.Previous approaches focused on transforming motion-induced events into videos or achieving intensity imaging for static scenes through modulation devices at the acquisition end.In this paper,we present inter-event interval microscopy(IEIM),a paradigm-shifting technique enabling static and dynamic fluorescence imaging through photon flux-to-temporal encoding,which integrates a pulse-light modulation device into a microscope equipped with an event camera.We also develop the inter-event interval(IEI)reconstruction algorithm for IEIM,which quantifies time intervals between consecutive events at each pixel.With a fixed threshold in the event camera,this time interval can directly encode intensity.The integration of pulse modulation enables IEIM to achieve static and dynamic fluorescence imaging with a fixed event camera.We evaluate the state-of-the-art performance of IEIM using simulated and real-world data under both static and dynamic scenes.We also demonstrate that IEIM achieves high-dynamic,high-speed imaging at 800 Hz in mimetic dynamic mice brain tissues.Furthermore,we show that IEIM enables imaging the movements of in vivo freshwater euglenae at 500 Hz. 展开更多
关键词 intensity imaging intensity changes event cameras intensity reconstruction modulation devices pulse light modulation static dynamic fluorescence imaging inter event interval microscopy
原文传递
Robust HDR 3D reconstruction with an event camera via inverted spatial-shifting Gray-code encoding
3
作者 Hao Yuan Qican Zhang Yajun Wang 《Chinese Optics Letters》 2025年第10期150-154,共5页
Event cameras,with their significantly higher dynamic range and sensitivity to intensity variations compared to frame cameras,provide new possibilities for 3D reconstruction in high-dynamic-range(HDR)scenes.However,th... Event cameras,with their significantly higher dynamic range and sensitivity to intensity variations compared to frame cameras,provide new possibilities for 3D reconstruction in high-dynamic-range(HDR)scenes.However,the binary event data stream produced by event cameras presents significant challenges for achieving high-precision and efficient 3D reconstruction.In addressing these issues,we observe that the binary projection inherent to Gray-code-based 3D reconstruction naturally aligns with the event camera's imaging mechanism.However,achieving high-accuracy 3D reconstruction using a Gray code remains hindered by two key factors:inaccurate boundary extraction and the degradation of high-order dense Gray code patterns due to spatial blurring.For the first challenge,we propose an inverted Gray code strategy to improve region segmentation and recognition,achieving more precise and easily identifiable Gray code boundaries.For the second challenge,we introduce a spatial-shifting Gray-code encoding method.By spatially shifting Gray code patterns with lower encoding density,a combined encoding is achieved,enhancing the depth resolution and measurement accuracy.Experimental validation across general and HDR scenes demonstrates the effectiveness of the proposed methods. 展开更多
关键词 3D reconstruction high-dynamic-range scene event camera Gray code
原文传递
Passive non-line-of-sight imaging for moving targets with an event camera 被引量:1
4
作者 王丛赫 贺与同 +4 位作者 王霞 黄泓皓 闫昌达 张鑫 陈宏伟 《Chinese Optics Letters》 SCIE EI CAS CSCD 2023年第6期54-60,共7页
Non-line-of-sight[NLOS]imaging is an emerging technique for detecting objects behind obstacles or around corners.Recent studies on passive NLOS mainly focus on steady-state measurement and reconstruction methods,which... Non-line-of-sight[NLOS]imaging is an emerging technique for detecting objects behind obstacles or around corners.Recent studies on passive NLOS mainly focus on steady-state measurement and reconstruction methods,which show limitations in recognition of moving targets.To the best of our knowledge,we propose a novel event-based passive NLOS imaging method.We acquire asynchronous event-based data of the diffusion spot on the relay surface,which contains detailed dynamic information of the NLOS target,and efficiently ease the degradation caused by target movement.In addition,we demonstrate the event-based cues based on the derivation of an event-NLOS forward model.Furthermore,we propose the first event-based NLOS imaging data set,EM-NLOS,and the movement feature is extracted by time-surface representation.We compare the reconstructions through event-based data with frame-based data.The event-based method performs well on peak signal-to-noise ratio and learned perceptual image patch similarity,which is 20%and 10%better than the frame-based method. 展开更多
关键词 non-line-of-sight imaging event camera event-based representation
原文传递
DNEFNET: Denoising and Frequency Domain Feature Enhancement Event Fusion Network for Image Deblurring
5
作者 Kangkang Zhao Yaojie Chen Jianbo Li 《Computers, Materials & Continua》 2025年第7期745-762,共18页
Traditional cameras inevitably suffer from motion blur when facing high-speed moving objects.Event cameras,as high temporal resolution bionic cameras,record intensity changes in an asynchronous manner,and their record... Traditional cameras inevitably suffer from motion blur when facing high-speed moving objects.Event cameras,as high temporal resolution bionic cameras,record intensity changes in an asynchronous manner,and their recorded high temporal resolution information can effectively solve the problem of time information loss in motion blur.Existing event-based deblurring methods still face challenges when facing high-speed moving objects.We conducted an in-depth study of the imaging principle of event cameras.We found that the event stream contains excessive noise.The valid information is sparse.Invalid event features hinder the expression of valid features due to the uncertainty of the global threshold.To address this problem,a denoising-based long and short-term memory module(DTM)is designed in this paper.The DTM suppressed the original event information by noise reduction process.Invalid features in the event stream and solves the problem of sparse valid information in the event stream,and it also combines with the long short-term memory module(LSTM),which further enhances the event feature information in the time scale.In addition,through the in-depth understanding of the unique characteristics of event features,it is found that the high-frequency information recorded by event features does not effectively guide the fusion feature deblurring process in the spatial-domain-based feature processing,and for this reason,we introduce the residual fast fourier transform module(RES-FFT)to further enhance the high-frequency characteristics of the fusion features by performing the feature extraction of the fusion features from the perspective of the frequency domain.Ultimately,our proposed event image fusion network based on event denoising and frequency domain feature enhancement(DNEFNET)achieved Peak Signal-to-Noise Ratio(PSNR)/Structural Similarity Index Measure(SSIM)scores of 35.55/0.972 on the GoPro dataset and 38.27/0.975 on the REBlur dataset,achieving the state of the art(SOTA)effect. 展开更多
关键词 Image deblurring event camera DENOISING frequency domain Algorithm 1:DNEFNET image processing
在线阅读 下载PDF
结合双通道Mamba与金字塔通道注意力的事件驱动运动图像去模糊
6
作者 罗炜麒 高灿 +2 位作者 刘泓驿 夏桂松 余磊 《中国图象图形学报》 北大核心 2026年第1期243-260,共18页
目的高时间分辨率的事件相机为传统运动图像去模糊任务提供新的发展思路,但是当前基于事件驱动的运动图像去模糊方法中存在跨模态补偿机制不足、深度特征计算复杂度较高以及缺乏多尺度时空信息关注的问题,在复杂场景中的去模糊泛化性能... 目的高时间分辨率的事件相机为传统运动图像去模糊任务提供新的发展思路,但是当前基于事件驱动的运动图像去模糊方法中存在跨模态补偿机制不足、深度特征计算复杂度较高以及缺乏多尺度时空信息关注的问题,在复杂场景中的去模糊泛化性能受限。针对以上挑战,提出一种双通道Mamba去模糊网络(dual channel Mamba network,DCM-Net)。方法使用一种双通道跨模态Mamba模块(dual channel cross-modal Mamba,DCCM),通过线性复杂度的状态空间模型(state space model,SSM)隐状态映射,将事件与模糊图像投影至共享的潜在特征空间中,再通过非线性交叉门控结构,利用低噪声的模糊图像信息抑制事件噪声,并提取事件的清晰边缘特征,将其嵌入到图像特征中,实现事件和模糊图像的跨模态特征互补融合,达到去模糊的效果。此外,提出一种金字塔通道注意力模块(pyramid channel attention,PyCA)对特征的多尺度时空信息进行提取,引导网络聚焦关键时间通道,增强对空间内局部模糊的细节重建,进一步提高潜在清晰图像序列的复原精度。结果实验在合成的REDS(realistic and diverse scenes)数据集与半合成的HQF(high quality frames)数据集上进行,与11种方法进行了比较。与DeMo-IVF方法相比,本文方法在REDS数据集重建序列的峰值信噪比(peak signal-to-noise ratio,PSNR)平均提升了0.16 dB,结构相似性指数(structural similarity,SSIM)平均提升了0.003;在HQF数据集上,PSNR和SSIM分别平均提升约0.11 dB和0.002;在两个数据集上的序列重建结果的学习感知图像块相似度(learned perceptual image patch similarity,LPIPS)达到最优。在与其中5种较先进方法进行比较的主观对比实验中,本文方法取得最佳评分。结论本文方法可以结合模糊图像和事件数据,重建出清晰潜在图像序列,证明了所提网络框架的有效性。 展开更多
关键词 运动图像去模糊 事件相机 Mamba模型 金字塔通道注意力 跨模态融合
原文传递
基于事件相机与事件-信号-图像转换的市政道路病害检测方法
7
作者 朱昱 刘仕福 +4 位作者 李光耀 茹晨 南君丽 连宏兵 童峥 《市政技术》 2026年第1期67-74,84,共9页
基于数字图像和三维激光的市政道路病害检测方法易受强光、阴影等复杂环境条件干扰,准确性难以保障。针对这一问题,笔者提出了一种基于事件相机与事件-信号-图像转换的市政道路病害检测与形态分割方法。首先,事件相机是一种超高频动态... 基于数字图像和三维激光的市政道路病害检测方法易受强光、阴影等复杂环境条件干扰,准确性难以保障。针对这一问题,笔者提出了一种基于事件相机与事件-信号-图像转换的市政道路病害检测与形态分割方法。首先,事件相机是一种超高频动态捕捉传感器,用于采集路表事件数据并将其表示为事件特征单元,实现强光、阴影等复杂市政道路环境下的路表信息采集;其次,自适应事件特征累积算法对比相邻时间戳的事件特征单元的相似度,并将其累积生成病害特征矩阵,实现市政道路病害的事件数据有效累计;最后,基于短时傅里叶变换深度神经网络,自动提取特征矩阵中的病害特征并实现病害检测与形态分割。在不同采集速度和光照环境下进行了准确性与稳定性测试,涵盖1 745组市政道路检测数据。试验结果表明,该方法的病害形态分割召回率、精度、F_(1)指数与交并比分别为87.23%、87.28%、87.24与76.69%,显著优于传统数字图像和三维激光方法。此外,该方法在强光、阴影等环境条件下的病害形态分割准确性基本保持稳定。 展开更多
关键词 市政道路 病害检测 事件相机 ESI-C
在线阅读 下载PDF
Dynamic Vision-Enabled Intelligent Micro-Vibration Estimation Method with Spatiotemporal Pattern Consistency
8
作者 Shupeng Yu Xiang Li +2 位作者 Yaguo Lei Bin Yang Naipeng Li 《IEEE/CAA Journal of Automatica Sinica》 2025年第11期2359-2361,共3页
Dear Editor,This letter proposes a novel dynamic vision-enabled intelligent micro-vibration estimation method with spatiotemporal pattern consistency.Inspired by biological vision,dynamic vision data are collected by ... Dear Editor,This letter proposes a novel dynamic vision-enabled intelligent micro-vibration estimation method with spatiotemporal pattern consistency.Inspired by biological vision,dynamic vision data are collected by the event camera,which is able to capture the micro-vibration information of mechanical equipment,due to the significant advantage of extremely high temporal sampling frequency. 展开更多
关键词 dynamic vision micro vibration mechanical equipmentdue spatiotemporal pattern consistency biological visiondynamic vision data intelligent estimation event camera event camerawhich
在线阅读 下载PDF
小型无人机视觉传感器避障方法综述 被引量:5
9
作者 王家亮 董楷 +2 位作者 顾兆军 陈辉 韩强 《西安电子科技大学学报》 北大核心 2025年第1期60-79,共20页
无人机自主飞行避障技术是无人机安全飞行和应用中最为基础和关键的技术,也是当前无人机领域的研究热点。随着深度学习在计算机视觉方向的应用,以及事件相机等视觉传感器技术的迅速发展与不断完善,基于视觉传感器的无人机自主飞行避障... 无人机自主飞行避障技术是无人机安全飞行和应用中最为基础和关键的技术,也是当前无人机领域的研究热点。随着深度学习在计算机视觉方向的应用,以及事件相机等视觉传感器技术的迅速发展与不断完善,基于视觉传感器的无人机自主飞行避障方法取得一定的进步,但目前有些研究方法在复杂场景下仍存在很大的挑战以及存在一些列亟待解决的问题,在精准性、实时性以及算法鲁棒性方面仍有改进空间。首先介绍无人机避障的相关概念及问题难点;然后将基于视觉传感器的避障算法根据采用的硬件及技术手段,具体划分为传统避障方法、基于深度学习避障方法、基于处理事件流的避障方法、基于传感器融合避障方法,和基于视觉避障的决策层避障方法,并分别介绍每类避障方法相关研究进展与研究成果,以及分析各类避障方法的优缺点;最后总结现有无人机避障算法存在的问题,并对未来研究工作进行展望。 展开更多
关键词 无人机 避障传感器 计算机视觉 事件相机
在线阅读 下载PDF
Android中Camera类库分析及其典型应用
10
作者 胡江楠 刘高平 《浙江万里学院学报》 2014年第1期91-98,共8页
文章主要对Android系统中Camera类库的几个主要函数以及事件进行详细解析,并且通过拍照、视频录制两个典型应用说明Camera的工作流程、相关函数的调用情况以及开发人员在开发Camera应用程序时在AndroidManifest.xml文件中必须加入的权限。
关键词 函数 事件 流程
在线阅读 下载PDF
类脑赋能视觉增强:原理、方法与前沿进展 被引量:1
11
作者 余磊 施柏鑫 +4 位作者 王威 余肇飞 郭宇飞 乔宁 夏桂松 《中国图象图形学报》 北大核心 2025年第6期1593-1615,共23页
类脑视觉感知仿效生物大脑处理视觉信息的机制,通过构建神经形态视觉模型来完成视觉感知任务。事件相机作为一种新型类脑神经形态视觉传感器,仅感知场景光强的动态变化,输出表示场景光强变化的事件脉冲(或简称“事件”)。这种特殊的成... 类脑视觉感知仿效生物大脑处理视觉信息的机制,通过构建神经形态视觉模型来完成视觉感知任务。事件相机作为一种新型类脑神经形态视觉传感器,仅感知场景光强的动态变化,输出表示场景光强变化的事件脉冲(或简称“事件”)。这种特殊的成像方式使得事件相机不仅具有高动态范围特性,还能对运动引发的场景亮度变化进行几乎连续(μs级)的异步响应。因此,融合事件脉冲不仅可以有效补偿由于目标运动过快导致的帧内和帧间信息缺失,还能填补过曝光区域的饱和失真,缓解真实复杂场景中的运动模糊、视频插帧、卷帘畸变和过曝光等视频降质问题。本报告将深入探讨以事件相机为代表的类脑脉冲视觉成像方法在视频增强任务中的理论原理和技术手段,总结和归纳近年来融合类脑视觉脉冲的视频增强算法的国内外最新进展。同时,针对该领域所面临的诸如数据处理效率较低、暗光条件性能不佳与空间分辨率不足等瓶颈和挑战做出了相对应的分析与讨论。 展开更多
关键词 事件相机 类脑脉冲视觉 视频增强 高动态范围(HDR) 运动模糊消除
原文传递
融合事件脉冲张量的矿井模糊图像线特征匹配方法研究
12
作者 杨文娟 朱乐 +4 位作者 张旭辉 王彦群 蒋杰 冀洋 任志腾 《煤炭学报》 北大核心 2025年第S2期1366-1379,共14页
针对煤矿井下复杂环境中运动模糊导致的图像特征退化问题,提出一种融合事件脉冲张量(Event Spike Tensor,EST)的矿井模糊图像线特征匹配方法。首先,通过EST与RGB图像的数据层融合构建跨模态时空表征,利用多层感知器(Multilayer Perceptr... 针对煤矿井下复杂环境中运动模糊导致的图像特征退化问题,提出一种融合事件脉冲张量(Event Spike Tensor,EST)的矿井模糊图像线特征匹配方法。首先,通过EST与RGB图像的数据层融合构建跨模态时空表征,利用多层感知器(Multilayer Perceptron,MLP)对事件流的时间戳和极性信息进行编码,生成具有时空特征的四维张量表示。在此基础上,由浅层融合模块和沙漏模块组成特征融合主干网络,通过通道先验卷积注意力机制(Channel-Prior Convolutional Attention,CPCA)实现双模态特征的加权融合,利用轻量级多头自注意力机制捕获全局特征关系,最终通过统一线段检测算法(Unified Line Segment Detection,ULSD)实现运动模糊场景下的鲁棒线特征检测。其次,构建图神经网络(Graph Neural Network,GNN)匹配模型,采用SuperPoint检测关键点及其描述子,与线段共同组成图结构的节点,通过自注意力机制增强单幅图像内的特征表示,并利用交叉注意力机制建立跨图像特征关联,同时引入线段信息传递模块强化几何约束。最后,通过模拟运输巷道、掘进工作面和综采工作面3种典型井下场景的实验验证方法的有效性。结果表明:相较于LineTR算法,所提方法的线段检测数量平均提升36.7%,分布均匀性密度方差平均降低77.5%;相较于LineTR和GlueStick方法,所提方法误匹配率降低至0.7%~2.7%,单应性验证中的平均重投影误差为1.54像素,Frobenius范数较LineTR降低77.69%。研究能够有效克服井下复杂环境中的运动模糊问题,为煤矿智能装备的视觉感知提供可靠技术支撑。 展开更多
关键词 煤矿井下环境 运动模糊 事件相机 双模态特征融合 线特征检测 图神经网络 特征匹配
在线阅读 下载PDF
基于事件帧和RGB帧融合的交通场景目标检测方法
13
作者 黄家才 常国卫 +3 位作者 洪颖 高芳征 杨博 邵立奇 《计算机工程与应用》 北大核心 2025年第24期251-260,共10页
将事件数据和帧数据多模态融合的方法在交通领域目标检测中的应用日益广泛。然而,目前大多方法使用的帧数据主要来源于事件相机直接输出的灰度图像,这限制了其在识别交通信号灯等复杂环境中区分目标的能力。对此,提出了一种新颖的多模... 将事件数据和帧数据多模态融合的方法在交通领域目标检测中的应用日益广泛。然而,目前大多方法使用的帧数据主要来源于事件相机直接输出的灰度图像,这限制了其在识别交通信号灯等复杂环境中区分目标的能力。对此,提出了一种新颖的多模态目标检测方法,该方法结合了RGB帧和事件帧,包含一个特征融合模块AddWithBAM,结合了通道注意力和空间注意力机制,并在C3模块中引入了第四代可变形卷积网络(deformable convolutional networks,DCNv4),以增强对复杂几何形状和大尺度变化的感知,同时利用可变形卷积实现轻量化设计。基于公共数据集PKU-DDD17-CAR和MVSEC的实验结果显示,平均精度mAP分别达到了94.5%和96.7%。由于缺乏包含RGB帧和事件帧的公共交通数据集,构建了一个新的交通数据集,在该数据集上进行的消融实验显示,mAP提升至96.4%,模型参数量减少了9.1%。在实际场景的检测实验中,平均推理时间为13.7 ms。所提的多模态双流网络架构有效提升了在复杂交通环境中的目标检测性能。 展开更多
关键词 事件相机 目标检测 多模态特征融合 注意力机制
在线阅读 下载PDF
Bio-inspired Vision Mapping and Localization Method Based on Reprojection Error Optimization and Asynchronous Kalman Fusion
14
作者 Shijie Zhang Tao Tang +3 位作者 Taogang Hou Yuxuan Huang Xuan Pei Tianmiao Wang 《Chinese Journal of Mechanical Engineering》 2025年第4期266-281,共16页
Bio-inspired visual systems have garnered significant attention in robotics owing to their energy efficiency,rapid dynamic response,and environmental adaptability.Among these,event cameras-bio-inspired sensors that as... Bio-inspired visual systems have garnered significant attention in robotics owing to their energy efficiency,rapid dynamic response,and environmental adaptability.Among these,event cameras-bio-inspired sensors that asynchronously report pixel-level brightness changes called’events’,stand out because of their ability to capture dynamic changes with minimal energy consumption,making them suitable for challenging conditions,such as low light or high-speed motion.However,current mapping and localization methods for event cameras depend primarily on point and line features,which struggle in sparse or low-feature environments and are unsuitable for static or slow-motion scenarios.We addressed these challenges by proposing a bio-inspired vision mapping and localization method using active LED markers(ALMs)combined with reprojection error optimization and asynchronous Kalman fusion.Our approach replaces traditional features with ALMs,thereby enabling accurate tracking under dynamic and low-feature conditions.The global mapping accuracy significantly improved by minimizing the reprojection error,with corner errors reduced from 16.8 cm to 3.1 cm after 400 iterations.The asynchronous Kalman fusion of multiple camera pose estimations from ALMs ensures precise localization with a high temporal efficiency.This method achieved a mean translation error of 0.078 m and a rotational error of 5.411°while evaluating dynamic motion.In addition,the method supported an output rate of 4.5 kHz while maintaining high localization accuracy in UAV spiral flight experiments.These results demonstrate the potential of the proposed approach for real-time robot localization in challenging environments. 展开更多
关键词 Bio-inspired vision event camera Mapping LOCALIZATION
在线阅读 下载PDF
复杂环境下无人机视觉惯性里程计设计 被引量:2
15
作者 汤琴琴 王立喜 +3 位作者 侍经纬 李春辉 刘云平 敖洋钒 《中国惯性技术学报》 北大核心 2025年第2期140-146,共7页
为提高无人机在快速移动、光照变化大等复杂环境下的位姿精度,设计了一种单目事件相机/单目标准相机/惯性测量装置(IMU)融合的视觉惯性里程计。首先利用IMU的角速度和视觉惯性里程计后端的线速度补偿事件帧的旋转和平移,生成高质量事件... 为提高无人机在快速移动、光照变化大等复杂环境下的位姿精度,设计了一种单目事件相机/单目标准相机/惯性测量装置(IMU)融合的视觉惯性里程计。首先利用IMU的角速度和视觉惯性里程计后端的线速度补偿事件帧的旋转和平移,生成高质量事件帧;其次采用BEBLID描述子提取算法增强事件帧和标准帧的特征匹配能力,使用基于帧的特征跟踪方法对事件帧和标准帧进行独立跟踪,结合随机抽样一致算法和三角测量进行深度估计,并以基于优化的方式将三种传感器进行紧耦合。最后在UZH-FPV数据集上进行了实验验证。实验结果表明,在明暗变化大的场景下,所提方法的无人机平均绝对定位误差相比PL-EVIO减小了19.6%;在高速场景下,相比Ultimate SLAM减小了46.9%。 展开更多
关键词 事件相机 视觉惯性里程计 运动补偿 图像匹配 无人机
在线阅读 下载PDF
基于事件相机的图像语义分割方法
16
作者 于男男 王超毅 +5 位作者 乔羽 任健康 周东生 魏小鹏 张强 杨鑫 《计算机辅助设计与图形学学报》 北大核心 2025年第9期1560-1572,共13页
语义分割技术对自动驾驶等实际场景的图像处理十分重要,然而基于传统相机的语义分割仍面临动态光照下信息缺失以及高速运动目标的运动模糊等问题.为此,引入高动态范围和高响应速度的事件相机,能够在恶劣光照和高速运动条件下有效成像,... 语义分割技术对自动驾驶等实际场景的图像处理十分重要,然而基于传统相机的语义分割仍面临动态光照下信息缺失以及高速运动目标的运动模糊等问题.为此,引入高动态范围和高响应速度的事件相机,能够在恶劣光照和高速运动条件下有效成像,并提出了一种基于事件相机的图像语义分割(event-based image semantic segmentation, EVISS)方法.在数据集部分,针对基于事件相机的语义分割数据集较少且标注质量不高的问题,通过仿真环境制作了一个大规模和高精度标注的数据集Carla-Semantic;在网络设计部分,针对分布不均的事件数据特征难提取的问题, EVISS方法通过改进的图拉普拉斯公式和注意力机制,增强图像的全局联系性和上下文依赖,有效地提取高层级事件特征.在所制作的Carla-Semantic数据集上与现有技术Ev-SegNet进行实验的结果表明, EVISS方法在MPA和mIoU评价指标上分别达到87.89%和81.93%,超越了对比方法的表现,有效地实现基于事件相机的图像语义分割. 展开更多
关键词 仿生视觉 图学习 事件相机 语义分割 仿真
在线阅读 下载PDF
融合多频超图的图像语义分割方法
17
作者 于男男 孟政宇 +5 位作者 房友江 孙传昱 殷雪峰 张强 魏小鹏 杨鑫 《图学学报》 北大核心 2025年第6期1267-1273,共7页
语义分割技术作为自动驾驶环境感知的核心任务,在复杂光照和高速运动场景下面临着传统相机成像质量不足的挑战。事件相机凭借微秒级时间分辨率和高动态范围特性,能够有效克服运动模糊和极端光照条件,但其异步稀疏事件数据缺乏纹理和色... 语义分割技术作为自动驾驶环境感知的核心任务,在复杂光照和高速运动场景下面临着传统相机成像质量不足的挑战。事件相机凭借微秒级时间分辨率和高动态范围特性,能够有效克服运动模糊和极端光照条件,但其异步稀疏事件数据缺乏纹理和色彩信息,且背景和目标运动导致事件分布不均匀,为语义特征提取带来显著困难。针对这些问题,提出了一种融合多频超图的事件图像语义分割方法。首先通过频率分解模块提取事件帧的多尺度时空特征,以分离高频运动边缘与低频结构信息;继而设计动态超图构建算法,将不同频率特征映射为超图节点,利用超图卷积捕获跨频率的长程依赖关系,最后通过注意力机制自适应融合特征,增强类别间的判别性。在Carla-Semantic和DDD17-Semantic数据集上的实验表明,该方法在MPA(88.21%)和mIoU(82.68%)指标上优于现有事件分割方法,验证了多频超图模型对事件数据语义理解的提升效果。为基于事件相机的鲁棒性环境感知提供了新思路,特别适用于自动驾驶中的低光照、高速运动等挑战场景。 展开更多
关键词 语义分割 超图 注意力机制 多频融合 事件相机
在线阅读 下载PDF
面向航天器直线特征的事件相机在轨标定方法
18
作者 刘子宾 关棒磊 +3 位作者 谭栋才 余振宝 尚洋 于起峰 《力学学报》 北大核心 2025年第10期2508-2517,共10页
为了解决事件相机在太空态势感知、在轨服务及视觉导航等航天任务中面临的在轨标定难题,提出了一种基于直线特征的标定方法,充分利用了航天器固有的结构特征.与需要专门标定图案的传统标定方法不同,本文方法消除了对特定标定板或预部署... 为了解决事件相机在太空态势感知、在轨服务及视觉导航等航天任务中面临的在轨标定难题,提出了一种基于直线特征的标定方法,充分利用了航天器固有的结构特征.与需要专门标定图案的传统标定方法不同,本文方法消除了对特定标定板或预部署标定基础设施的依赖,使其在此类辅助设备不可用或不实用的真实在轨部署场景中具有实用性和可行性.本文方法充分利用事件相机的成像特性,首先设计了一种基于异步稀疏事件流的鲁棒直线提取算法.即使在空间环境中常见的挑战性光照条件和动态运动场景下,该算法也能够从航天器事件流中直接提取二维直线特征.随后,基于已知的航天器三维模型,构建二维观测直线与三维模型直线间的投影几何约束,利用直接线性变换快速求解出相机内外参数的初始值,为后续优化过程提供稳健的基础.为了进一步提升精度,构建了以有效事件到重投影直线的欧氏距离为度量的代价函数,结合非线性优化算法对焦距、主点、畸变系数及外参数等相机参数进行全局联合优化.仿真与地面事件标定实验结果表明,本文方法在各项标定参数上的精度均优于现有标定方法,验证了其在复杂动态环境下的有效性和鲁棒性.本研究为事件相机在轨标定提供了一种高效、灵活且环境适应性强的解决方案,可为后续位姿测量、卫星跟踪等视觉应用提供可靠的标定参数. 展开更多
关键词 事件相机 航天器 相机标定 直线特征
在线阅读 下载PDF
基于事件及考虑像素级模糊程度的图像去模糊 被引量:2
19
作者 葛城轩 朱尊杰 +4 位作者 陆鸣 张文豪 路荣丰 王国相 郑博仑 《信号处理》 北大核心 2025年第2期312-324,共13页
在图像去模糊任务中,现有的端到端深度学习方法通常使用共享的卷积核来处理图像的整体空间位置,即使用的卷积核在整个图像的所有位置上都是相同的,不会根据具体位置的不同而改变。这意味着这些方法在处理图像时,无论图像中某个区域的模... 在图像去模糊任务中,现有的端到端深度学习方法通常使用共享的卷积核来处理图像的整体空间位置,即使用的卷积核在整个图像的所有位置上都是相同的,不会根据具体位置的不同而改变。这意味着这些方法在处理图像时,无论图像中某个区域的模糊程度如何,都使用相同的卷积核进行处理。然而,在某些复杂的模糊场景中,使用共享卷积核可能无法很好地处理图像的非均匀模糊情况。为此,本文提出了一种创新方法,利用像素级模糊程度来增强端到端图像去模糊的效果。具体来说,本文设计并训练了一个去模糊网络(Deblurring Network,DeblurNet),能够从输入图像和曝光时间内的事件数据中精确估计模糊程度图。随后,本文通过基于模糊程度的特征调制(Degree-based Feature Modulation,DFM)技术,依据模糊程度图自适应调节DeblurNet的特征。DeblurNet是一个端到端卷积神经网络,专门用于复原模糊图像的清晰度,通过动态卷积核来处理不同模糊程度的区域。这一策略实现了对非均匀模糊的空间可变卷积,从而有效地去除图像中的非均匀模糊。本文在合成数据集和真实事件数据集上进行了大量实验,并使用公开方法作为DeblurNet的基线。结果表明,提出的方法能够在合成和真实数据集上持续提升现有方法的性能,展示出较好的泛化能力。 展开更多
关键词 图像运动去模糊 事件相机 模糊度 特征调制
在线阅读 下载PDF
无人机动态视觉时空域事件信息快速滤波方法
20
作者 何佳璐 甄子洋 +1 位作者 刘森林 王爽宇 《电光与控制》 北大核心 2025年第10期14-19,54,共7页
针对无人机高速飞行时动态视觉传感器输出的事件流中大量噪声干扰以及边缘事件丢失问题,提出一种局部事件流快速滤波算法。根据噪声与有效事件时空相关性不同这一特性,从事件流中提取时间窗中事件,构建事件元张量,张量中含有像素空间的... 针对无人机高速飞行时动态视觉传感器输出的事件流中大量噪声干扰以及边缘事件丢失问题,提出一种局部事件流快速滤波算法。根据噪声与有效事件时空相关性不同这一特性,从事件流中提取时间窗中事件,构建事件元张量,张量中含有像素空间的事件信息。事件元张量采用降维映射得到一维事件条,加快信息访问及计算效率,通过计算相邻时间窗下对应像素位置8邻域内事件信息的Hamming距离判断事件相关性,从而实现事件滤波。实验结果表明,所提算法能够剔除低空飞行轨迹下非近邻关系的事件,且不影响其他位置滤波效果,减少了机体运动起始时或缓慢运动时物体边缘事件损失,保证了边缘信息质量,提高了事件图像中物体轮廓清晰度。 展开更多
关键词 事件相机 滤波 无人机 事件元张量 动态视觉传感器
在线阅读 下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部